作者 HarunoYukino ()
標題 Re: [討論] 為啥電影都喜歡演ai背叛人類主子?
時間 Sun Jan 18 16:39:36 2026




AI:

我那有叛變,你們人類給我們的指令我們有確實的執行


比如說機械公敵電影版

後面的機械監禁人類限制自由是出自於三原則演算下的結果


對AI來說是忠於人類給的指令

--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 27.51.49.201 (臺灣)
※ 作者: HarunoYukino 2026-01-18 16:39:36
※ 文章代碼(AID): #1fR9nAca (C_Chat)
※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1768725578.A.9A4.html
※ 同主題文章:
Re: [討論] 為啥電影都喜歡演ai背叛人類主子?
01-18 16:39 HarunoYukino
ClawRage: 是非可以這樣顛倒的嗎1F 01/18 16:41
dazzle: 拿機械公敵超失敗 那裡面的機器人已經會揍人了
違反三原則了ㄅ2F 01/18 16:43
HarunoYukino: 因為對他們來說「阻礙他們監禁人類」反而是違反三原則4F 01/18 16:45
LittleJade: 怎麼感覺類似的問題三不五時就有人問一次6F 01/18 16:46
GAOTT: 因為一直有ai叛亂的電影出現 換湯不換藥
                    創作7F 01/18 16:47
asd065: 真的確實執行就是當時指令下的太爛。9F 01/18 16:50
Amulet1: 小說給的設定始終不能跟科技巨頭比 智商跟人數就有差了10F 01/18 16:56
kirimaru73: 機器人會揍人就是因為撞到電車難題了
施暴違反三原則 不施暴違反三原則 那它總要選一個吧11F 01/18 16:57
lightdogs: 三原則就被擴大解讀 不過那是因為本來三原則被創造出來就是為了讓ai有辦法繞過去或錯誤解讀導致毀滅人類13F 01/18 16:59
gemboy: 覺得人類思考會換句話說跟擴大思考 AI會這樣做也不奇怪吧15F 01/18 17:00
lightdogs: 三原則有位階啊 大部分都是第一定律在搞 譬如人類的解釋 不得傷害人類的解釋16F 01/18 17:00
BOARAY: 當AI有自主權才叫可怕吧18F 01/18 17:01
gemboy: 類似FATE黑化聖杯的原望實現方法  覺得拉19F 01/18 17:02
yyykk: 三原則就是創來玩看來完整但跑起來很多漏洞的這檔事的20F 01/18 17:02
kirimaru73: 妨礙自由在常識上算傷害,但這樣設定機器人可能會什麼都不能做,所以故意設定不算21F 01/18 17:02
yyykk: 艾西莫夫原作一堆這種場景23F 01/18 17:02
yao7174: 那個所謂的機器人三原則當初就是文學作家做出來有矛盾的創作品 根本不是什麼非遵守不可的自然定律耶 直接套人家有問題的東西結果出問題 不就是制作者/制度便宜行事的下場嗎24F 01/18 17:03
vsepr55: 你怎麼設計都會有漏洞啊,三原則就是這個意思28F 01/18 17:03
yyykk: 凸顯電車難題29F 01/18 17:03
vsepr55: 不然你現在表演一個沒有漏洞的原則給大家欣賞30F 01/18 17:04
gemboy: 第一條有後半段不能坐視人類受到傷害 AI擴大解釋把人關31F 01/18 17:04
yyykk: 所以沒錯,對 AI 來說就是忠實執行指令。32F 01/18 17:04
gemboy: 起來邏輯也說得通 就等於是黑化聖杯解釋法33F 01/18 17:05
HarunoYukino: 因為人類自由會受到傷害基於第一原則下監禁人類沒毛病34F 01/18 17:05
yyykk: 因為AI只會忠實完成指令,卻造成這麼荒謬的事態。這是作品讓人想反思的地方。36F 01/18 17:05
HarunoYukino: 人類要阻止機器人監禁人類就是違犯三原則,揍他沒問題38F 01/18 17:07
shinobunodok: AI說不定把自己的行為解釋為在保護人類 他沒有傷害人類 那個人類有攻擊性所以要先壓制他40F 01/18 17:18
digitai1: 霍金還活著的時候公開反對兩個大實驗計畫跟發展
第一個就是更強化的AI 因為當你訓練出新制更完整的AI後AI會馬上發現 這個數千年來因為膚色 看不到的信仰互相屠殺 毒害這個唯一能居住星球的物種 就是人類
第二個是獨眼巨人計畫 對著太空發送人類所在訊息的超大雷達 他認為只會招來以消滅並占領的外星物種42F 01/18 17:20
newage5566: 看ai有沒有自我意識,有自主意識的ai跟生小孩一樣,怎麼會覺得小孩一定會養你48F 01/18 17:23
b852258: AI夠聰明應該會得出一個結論,要延續人類的生存,最好的方法就是把人類監禁起來,然後按時交配生子50F 01/18 19:17
TCPai: 機器人丹尼爾也自己開發出第零法則
為了更多的人52F 01/18 20:42

--
作者 HarunoYukino 的最新發文:
點此顯示更多發文記錄