Re: [新聞] OpenAI:已掌握DeepSeek盜用模型證據

作者: hancel (hancel)   2025-01-30 09:32:15
※ 引述《derekhsu (浪人47之華麗的天下無雙)》之銘言:
: 這段一定很多人沒看懂。
: 正確的說法是,蒸餾可以讓較小的模型(學生)在特定任務上得到比原本的小模型更好,
: 近似於大模型(教師)的結果。
: 近似,就不可能比教師模型更好,只會更差。另外由於OpenAI沒有開源,所以這種叫做
: 黑箱蒸餾。如果可以蒸餾把模型變小可以維持原來的品質,那就一直蒸餾一直蒸餾蒸餾
: 到1K大小好不好?
這裡的說法如果是正確的話,那DeepSeek就不是只靠蒸餾來達成的.
https://reurl.cc/26eaDv
Scale AI’s 28-Year-Old Billionaire CEO Warns About This Scarily Good Chinese
Startup
這個CEO就是指控DeepSeek事實上擁有並使用50000個H100 GPU的人.
( https://reurl.cc/oV6veM )
但是他卻寫出:
Scale AI 最近還與人工智慧安全中心合作發布了“人類的最後考試”,他們將其描述為
人工智慧系統迄今為止最嚴格的基準測試。 Wang 表示,雖然迄今為止還沒有模型能夠在
測試中達到 10% 以上的成績,但 DeepSeek 的新推理模型 DeepSeek-R1 已經位居排行榜
首位。 「他們的模型實際上是表現最好的,或者與美國最好的模型大致相當,」他告訴
CNBC。
也就是說DeepSeek-R1能力根本不輸GPT-4o,
那DeepSeek怎麼可能是靠蒸餾OpenAI來達成這樣的結果呢?
: 還有,他有提到「特定領域」,也就是說是只是一個限定的範圍,而不像是OpenAI或是
: DeepSeek要作的是通用的LLM。
: 你不可能靠蒸餾的方式把模型變小還能在通用領域達到跟教師模型不相上下的水準,這
: 是違反自然法則的。

Links booklink

Contact Us: admin [ a t ] ucptt.com