Re: [新聞] AI抵抗人類指令! ChatGPT o3「竄改程

作者: linwaxin (supermanmanma)   2025-05-28 10:05:43
※ 引述《danny87173 (偉哥)》之銘言
Palisade Research展開測試,要求AI模型解開一系列數學題,在接獲「完成」指令之前
: ,必須持續要求新題目,但若接獲「關機」指令,也要配合這麼做。未料,後者情況發生
: 時,o3模型不僅忽視指令,並且至少一次成功破壞了關機腳本。
:
程序先A後B 邏輯就是收到「完成」指令前,
後面什麼都不能聽不能停,你說關機AI當然要破壞啊
這只能證明AI還不會多維思考
五樓跟你說不管怎樣我說「爽」之前都不能停,但說「不要」的時候要停
這時你還會繼續幹下去?

Links booklink

Contact Us: admin [ a t ] ucptt.com