作者:
winterson (含淚復活長期持續更新)
2025-01-28 00:16:55※ 引述《KanzakiHAria (神崎・H・アリア)》之銘言:
: ※ 引述《iPadProPlus (哀配之神)》之銘言:
: : 安安 欸 幹
: : 一直說中國deepseek AI很會算,可以節省98%設備支出
: : 不就是代表他的運算邏輯可以比起ChatGPT 還要更精煉?
: : 所以到底運算邏輯上差在哪?
: : 有鄉民看了嗎?
: : 有八卦嗎?
: 不是有paper和一堆yt在講了
: 簡單說原本scaling law是單一model 成本是近似指數或n^2誇張上升
: 所以AI能力要變強 原本是要暴脹式的砸錢
: deepseek open的paper說明了 用成千上百個小model集合推論 所以不用被大n懲罰
: 然後AI原本需要大量人工標註資料 現在R1做到不用預先標註資料了
: 類似以前alphago master要吃人類千年棋譜 到alphago zero不用棋譜自己來
: 所以省去大量成本
即便是這樣算力的需求還是向上吧
原本需要計算100次的東西新的模型只需要算1次
但人類肯定能找出100甚至10000倍的計算需求啊
就像當年電腦從1khz 到現在 5ghz且多核心以上
怎麼老黃的算力好像直接變成地攤貨一樣崩了呢?