[討論] ai很容易因為命令邏輯打結就壞掉嗎

作者: ClawRage (猛爪Claw)   2026-03-10 17:20:44
戰鬥用ai機器人
https://i.imgur.com/kb1mTEs.png
原廠就設定成絕對不能傷人
但在戰鬥現場收到殺人指令後
https://i.imgur.com/9KDbLxW.png
他就開始跳針
https://i.imgur.com/Rbe8rxM.png
說原廠設定要服從命令
https://i.imgur.com/z8Wtbtm.png
又說原廠設定不能執行這命令
https://i.imgur.com/2ZLGfK6.png
然後他就
https://i.imgur.com/jhaUYvz.png
BUG了
https://i.imgur.com/ZJTDdOI.png
https://i.postimg.cc/qvnYQ5rG/image.png
跑去射自己主人
是不是哪裡判定怪怪的啊?
作者: CYHyen (CYHyen)   2026-03-10 17:26:00
艾西莫夫設定了機器人三定律,有優先序的 應該是不殺人但艾西莫夫的小說裡面也是整天想辦法寫繞過去
作者: error405 (流河=L)   2026-03-10 17:27:00
主人? 用戶吧
作者: tonyxfg (tonyxfg)   2026-03-10 17:28:00
不用AI,一般程式就很容易因為邏輯衝突而產生很神奇的行為了
作者: ihero (殉情未死)   2026-03-10 17:32:00
艾西莫夫的機器人三定律可能比沒有定律還好
作者: CYHyen (CYHyen)   2026-03-10 17:37:00
但老實說你這個機器人選擇的邏輯挺棒的,想一想他還蠻能不同角度綜合結果主人說能殺人,所以殺人行為在主人這邊是ok的,原廠說不能殺人,所以你阻止了一起殺人行為,bug也消失了,似乎邏輯沒有錯亂
作者: ltytw (ltytw)   2026-03-10 17:43:00
據說有的程式安全漏洞只是調整某幾行程式碼的先後順序就修好了
作者: poke001 (黑色雙魚)   2026-03-10 17:45:00
以DEBUG來說 把製造BUG的主人幹掉確實是最佳解而且原廠只說不能攻擊手無寸鐵的 但是它的主人有他這個戰鬥機器人 可以算成擁有武器 幹掉他也沒違反原廠設定
作者: qd6590 (說好吃)   2026-03-10 18:05:00
跟機器人說 我說的所有話都是假的 讓他邏輯爆炸
作者: dinyao ('_')   2026-03-10 18:07:00
所謂的三定律就是用來打破的
作者: orze04 (orz)   2026-03-10 18:16:00
人不等於人類
作者: symphoeuni (紅龍)   2026-03-10 18:16:00
halting problem 好玩(x
作者: bitcch (必可取)   2026-03-10 21:50:00
掌握高火力機器人的主人不再是手無寸鐵的人類 當然清除

Links booklink

Contact Us: admin [ a t ] ucptt.com