作者 HarunoYukino ()標題 Re: [討論] 為啥電影都喜歡演ai背叛人類主子?時間 Sun Jan 18 16:39:36 2026
AI:
我那有叛變,你們人類給我們的指令我們有確實的執行
比如說機械公敵電影版
後面的機械監禁人類限制自由是出自於三原則演算下的結果
對AI來說是忠於人類給的指令
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 27.51.49.201 (臺灣)
※ 作者: HarunoYukino 2026-01-18 16:39:36
※ 文章代碼(AID): #1fR9nAca (C_Chat)
※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1768725578.A.9A4.html
※ 同主題文章:
Re: [討論] 為啥電影都喜歡演ai背叛人類主子?
01-18 16:39 HarunoYukino
推 dazzle: 拿機械公敵超失敗 那裡面的機器人已經會揍人了
違反三原則了ㄅ2F 01/18 16:43
推 GAOTT: 因為一直有ai叛亂的電影出現 換湯不換藥
創作7F 01/18 16:47
→ asd065: 真的確實執行就是當時指令下的太爛。9F 01/18 16:50
推 Amulet1: 小說給的設定始終不能跟科技巨頭比 智商跟人數就有差了10F 01/18 16:56
→ kirimaru73: 機器人會揍人就是因為撞到電車難題了
施暴違反三原則 不施暴違反三原則 那它總要選一個吧11F 01/18 16:57
推 lightdogs: 三原則就被擴大解讀 不過那是因為本來三原則被創造出來就是為了讓ai有辦法繞過去或錯誤解讀導致毀滅人類13F 01/18 16:59
推 gemboy: 覺得人類思考會換句話說跟擴大思考 AI會這樣做也不奇怪吧15F 01/18 17:00
→ lightdogs: 三原則有位階啊 大部分都是第一定律在搞 譬如人類的解釋 不得傷害人類的解釋16F 01/18 17:00
→ BOARAY: 當AI有自主權才叫可怕吧18F 01/18 17:01
→ gemboy: 類似FATE黑化聖杯的原望實現方法 覺得拉19F 01/18 17:02
推 yyykk: 三原則就是創來玩看來完整但跑起來很多漏洞的這檔事的20F 01/18 17:02
推 kirimaru73: 妨礙自由在常識上算傷害,但這樣設定機器人可能會什麼都不能做,所以故意設定不算21F 01/18 17:02
→ yyykk: 艾西莫夫原作一堆這種場景23F 01/18 17:02
推 yao7174: 那個所謂的機器人三原則當初就是文學作家做出來有矛盾的創作品 根本不是什麼非遵守不可的自然定律耶 直接套人家有問題的東西結果出問題 不就是制作者/制度便宜行事的下場嗎24F 01/18 17:03
推 vsepr55: 你怎麼設計都會有漏洞啊,三原則就是這個意思28F 01/18 17:03
→ yyykk: 凸顯電車難題29F 01/18 17:03
→ vsepr55: 不然你現在表演一個沒有漏洞的原則給大家欣賞30F 01/18 17:04
推 gemboy: 第一條有後半段不能坐視人類受到傷害 AI擴大解釋把人關31F 01/18 17:04
→ yyykk: 所以沒錯,對 AI 來說就是忠實執行指令。32F 01/18 17:04
→ gemboy: 起來邏輯也說得通 就等於是黑化聖杯解釋法33F 01/18 17:05
→ yyykk: 因為AI只會忠實完成指令,卻造成這麼荒謬的事態。這是作品讓人想反思的地方。36F 01/18 17:05
推 shinobunodok: AI說不定把自己的行為解釋為在保護人類 他沒有傷害人類 那個人類有攻擊性所以要先壓制他40F 01/18 17:18
推 digitai1: 霍金還活著的時候公開反對兩個大實驗計畫跟發展
第一個就是更強化的AI 因為當你訓練出新制更完整的AI後AI會馬上發現 這個數千年來因為膚色 看不到的信仰互相屠殺 毒害這個唯一能居住星球的物種 就是人類
第二個是獨眼巨人計畫 對著太空發送人類所在訊息的超大雷達 他認為只會招來以消滅並占領的外星物種42F 01/18 17:20
推 newage5566: 看ai有沒有自我意識,有自主意識的ai跟生小孩一樣,怎麼會覺得小孩一定會養你48F 01/18 17:23
推 b852258: AI夠聰明應該會得出一個結論,要延續人類的生存,最好的方法就是把人類監禁起來,然後按時交配生子50F 01/18 19:17
→ TCPai: 機器人丹尼爾也自己開發出第零法則
為了更多的人52F 01/18 20:42
--