作者:
linwaxin (supermanmanma)
2025-05-28 10:05:43※ 引述《danny87173 (偉哥)》之銘言
Palisade Research展開測試,要求AI模型解開一系列數學題,在接獲「完成」指令之前
: ,必須持續要求新題目,但若接獲「關機」指令,也要配合這麼做。未料,後者情況發生
: 時,o3模型不僅忽視指令,並且至少一次成功破壞了關機腳本。
:
程序先A後B 邏輯就是收到「完成」指令前,
後面什麼都不能聽不能停,你說關機AI當然要破壞啊
這只能證明AI還不會多維思考
五樓跟你說不管怎樣我說「爽」之前都不能停,但說「不要」的時候要停
這時你還會繼續幹下去?