我算半個業內人士,目前最主要的硬體區別在於有沒有NPU這個運算單元。
根據微軟老爸爸的定義,AI PC必須要比普通電腦多出NPU,也就是神經網路處理單元,而且在軟體上還要內建Copilot( 微軟的人工智慧)。
也就是說,在硬體層面會多一個新東西之外,軟體層面也必須為人工智慧開路,像是更好的調度,或是比先前CPU+GPU還要更有能耗比等等。
這就是我目前能想到的差別,但對於普通消費者而言,這只不過是換一個名詞定義「頂尖性能」而已。
現今的CPU+GPU已經能處理大部分本地端應用,甚至NPU的效能還遠不及現在的解決方案,所以結論就是看看就好,這概念還太新,對日常使用還沒有關鍵性影響。
作者: qwork 2024-06-05 23:00:00
不合微軟規定也能掛AI PC吧
作者:
medama ( )
2024-06-05 23:01:00現在coplitor會調用NPU的性能嗎?
作者:
gino0717 (gino0717)
2024-06-05 23:03:00對象客戶是老闆要你用內顯做AI的那種公司
M軟搞ai pc這整串目的很好懂現在尼看得到的ai pc都面向輕薄本戰略目標94針對阿婆MBA
AI PC也有人用TOPs定義 超過多少才算copilot也是拿chatgpt資料庫去用的copilot 會不會用到npu,會 影像處理部分就會你需要本地端快速處理的就會用到,其他還是都上雲端
作者:
guaz (guaz)
2024-06-05 23:08:00因應安全性有些應用只能在local處理,會這樣發展不奇怪吧
作者: mic73528 (jazzy) 2024-06-05 23:08:00
高通的到底好不好用阿?左打I家A家右打M系列誒
作者:
medama ( )
2024-06-05 23:08:00原來如此
他主打是隨著你使用,你的copilot會越來越接近你習慣
作者:
aaaaooo (路過鄉民)
2024-06-05 23:09:00npu這東西水果都搞多久了 軟軟現在喊這個唬不到人的
作者:
cchh179 (howie)
2024-06-05 23:09:00話說npu跟獨立顯卡 哪個跑ai比較快啊?
這東西就是讓你能用便宜的NPU在local端跑小模型用的不然現在內顯的intel連7B的模型都跑得零零落落
作者:
Arbin (路人_Lv菜逼八)
2024-06-06 04:36:0023樓太酸了吧 不要這樣戳破人==