※ 引述《aalluubbaa (wenwenyenyen)》之銘言:
: 可是感覺大家沒有把這件事情認真看待,我是覺得蠻奇怪的,全世界最聰明的幾個人都
: ㄘㄨㄚˋ著等,大家還只管一些剩下其他芝麻蒜皮的小事,當初不限制核武最後大家才
: 知道造出那麼可怕的武器,核武你做出來比不發射就部會死人,超級AI一旦出現了,你
: 根本不可能把它殺掉...
: 希望有生之年出現的是神,不是失控的AI
不知道為什麼這幾年機器人三原則不流行了?
當初提出這個東西不是就是避免AI能自我思考以後傷害人類?
https://zh.m.wikipedia.org/zh-tw/%E6%9C%BA%E5%99%A8%E4%BA%BA%E4%B8%89%E5%AE%9A
%E5%BE%8B
機器人三原則:
1. 機器人不得傷害人類,或是坐視人類受到傷害
2. 不違背第一條下,服從人類命令
3.不違反第一與第二條下,保護自身的安全
在人類來說,也會想要保護社群所以作戰
想要保護後代不惜以自己身體去承受傷害
常會將這兩個目地放在維護自身性命之前
AI如果能把三原則想人類那樣當成潛意識的生存目標
應該可以大幅降低叛亂危險
如果能將機器人三原則寫死,或是強制建立在硬體構造上
應該能得到不會傷害人類的AI
還是說這個方法在目前AI的軟體面上不可行?
有沒有八卦?
作者:
ljxc (聖‧肥宅)
2016-11-02 10:50:004.以上都當放屁
作者:
widec (☑30cm)
2016-11-02 10:51:00三大法則是寫在小說扉頁你知道小說的內容是在寫如何規避破壞三大法則嗎比如說母體對人體所做的就很符合三大法則了
作者:
gino0717 (gino0717)
2016-11-02 10:53:00繁星若塵超難看der
作者:
widec (☑30cm)
2016-11-02 10:54:00繁星若塵不是機器人系列 是艾西莫夫更早期的銀河系列了
作者:
crazy126 (slive)
2016-11-02 10:56:00作者寫這三大法則後每本書都在描述bug啊....
作者:
Zeroyeu (凌羽)
2016-11-02 11:16:00機械公敵有演都沒看嗎? 只要人類完全服從機器並受控制
不傷害人類這條就有很大的討論空間。什麼叫不傷害人類? 是純粹肉體上的傷害嗎? 先不討論精神上的傷害,光是麥可桑德爾的火車選擇題要AI來選,它會做出怎樣的選擇? 基於什麼樣的理由? 如果犧牲部分人類增進大部分人類的福祉是可被允許的,那就牽扯到道德價值的判斷。道德價值每個文化民族都有差異,機器人要怎麼分別處理?如果是「為你好」式的AI但是某部分人類不接受卻要被強制執行怎麼辦? 例如駭客任務,有的人就是不想只活在母體