作者:
pujos (lks)
2025-07-07 20:25:49現在哪個模型都不可能
承擔這種任務啊
這不是使用前就該知道的事?
讓你整個模型訓練世界完美毫無破綻
問題是輸入端有限制啊
該LLM上限多少Token沒講
拿GPT4來說
目前GPT4可用Token上限號稱128K
實際不影響效能就20~30K
這Token數量
換算成中文字對話速度記憶量
約3~4個小時就耗盡了
你拿它搞一個月...賠不死你才怪
它其實是因為記憶力耗盡
一直再不斷重置
當然就有你看到那些
前文不對後語
看起來亂回亂記一通的結果
再來LLM是“語言預測模型”
它只關心輸出符不符合“邏輯”
對錯不重要
簡而言之
就是負責話唬爛的
找話唬爛的來當店長
會有什麼結果不是顯而易見的事嗎
※ 引述《pl132 (pl132)》之銘言:
: 備註請放最後面 違者新聞文章刪除
: 1.媒體來源:
: ※ 例如蘋果日報、自由時報(請參考版規下方的核准媒體名單)
: ※ Yahoo、MSN、LINE等非直接官方新聞連結不被允許
: ettoday
: 2.記者署名:
: ※ 若新聞沒有記者名字或編輯名字,請勿張貼,否則會被水桶14天
: ※ 外電至少要有來源或編輯 如:法新社
: 記者陳致平/綜合報導
: 3.完整新聞標題:
: ※ 標題沒有完整寫出來