PTT
Submit
Submit
選擇語言
正體中文
简体中文
PTT
Marginalman
Google TurboQuant 記憶體壓縮突
作者:
pchooooome
(匹西吼~~~~~~~~~~~~~~~~~)
2026-03-26 08:47:55
Google TurboQuant 記憶體壓縮突
Google 推出新 AI 記憶體壓縮演算法 TurboQuant,可將 AI 的「工作記 憶體」壓縮高達6
倍。
哇靠真假,這樣本地跑超大模型,的日子是不是要來了
挖苦挖苦
作者:
lovez04wj06
(車前草)
2026-03-26 08:49:00
期待
作者:
windowsill
(藍冬海)
2026-03-26 08:50:00
樂見其成
作者:
mayolane
(mayolaneisyagami)
2026-03-26 08:50:00
MU跟SNDK跌超多
作者:
pchooooome
(匹西吼~~~~~~~~~~~~~~~~~)
2026-03-26 08:51:00
拜託早點那個
作者:
F16V
(Manners maketh man.)
2026-03-26 08:52:00
錢包也壓縮了
作者:
pchooooome
(匹西吼~~~~~~~~~~~~~~~~~)
2026-03-26 08:53:00
親情厚了
作者:
Excrement35
(好好吃捏)
2026-03-26 08:53:00
mu藥丸:(
作者:
sustainer123
(caster)
2026-03-26 08:55:00
這一年前的論文 對啊
作者:
pchooooome
(匹西吼~~~~~~~~~~~~~~~~~)
2026-03-26 08:56:00
真假 那不用記憶體焦慮了
作者:
dog41125
(TL)
2026-03-26 08:56:00
Gimini沒開源可以本地嗎
作者:
pchooooome
(匹西吼~~~~~~~~~~~~~~~~~)
2026-03-26 08:58:00
看咕咕嚕說驗了3個模型 可以套用所有模型
作者:
h0103661
(路人喵)
2026-03-26 08:59:00
這個是量化3bit,量化技術早就很普及了,要1bit都可以,直接16倍壓縮,他只是聲稱他的量化幾乎無損
作者:
surimodo
(好吃棉花糖)
2026-03-26 09:03:00
難吧 量化通過基準測試很簡單 但實際用起來就是一坨
作者:
pchooooome
(匹西吼~~~~~~~~~~~~~~~~~)
2026-03-26 09:04:00
真假 他的量化還是會白痴喔 咕咕嚕騙我
繼續閱讀
Re: MLB
qscxz
Re: [閒聊] 今天很濕
Excrement35
[閒聊] EPIC大裁員
pan46
Re: [鐵道] 我的藿藿
Megacolon
Re: [鐵道] 我的藿藿
caat0808
[閒聊] 老馬要蓋質量投射器
F16V
[姆咪] 祖國的壽司郎
kerycheng
[姆咪] 李貞秀出大事!!!!!!!!
newz
[閒聊] 這隻好可愛
moumoon56
[閒聊] 早安高雄
Hyperledger
Links
booklink
Contact Us: admin [ a t ] ucptt.com