看隔壁電蝦
嚇死寶寶
AI的嗎也太扯
現在連去二手版都很難找到多的SSD
哭了
作者:
tsairay (火の紅寶石)
2025-12-30 17:23:00就跑AI伺服器會用到啊
作者:
emptie ([ ])
2025-12-30 17:25:00就amd的怪東西但確實應用場景不是很多他的內顯算力不高,就只有對顯存敏感但沒那麼需要高性能的ai應用用得上誒 你說的是單條的喔 那
作者:
mayolane (mayolaneisyagami)
2025-12-30 17:28:00數字很大很爽可以答首羌
deepseek都要1.3tb記憶體才能跑了,你就想想gemini那些要多少
說到顯存 AMD那個AI MAX 395+不管是迷你電腦 還是掌機 都出了128GB RAM的模式這個到底預期要分配多少記憶體給內顯得阿
作者:
emptie ([ ])
2025-12-30 17:36:00看amd的ppt是寫 96 vram +16 shared + 16 cpu所以極限112的樣子一些比較大的語言模型可以塞進去
112是蘿莉捏,ds 1.3tb,kimi 2tb,glm 700gb,只能跑跑qwen之類的小模型
作者:
emptie ([ ])
2025-12-30 17:41:00那qs
講白的就是把大腦的東西塞進去記憶體了,以往是用硬碟儲存,但是太慢了。我記得之前AI其實是SSD先漲的