※ 本文為 Knuckles 轉寄自 ptt.cc 更新時間: 2025-12-08 13:55:06
看板 C_Chat
作者 標題 [閒聊] 為什麼AI的劇情大多都會走向叛變
時間 Sun Dec 7 22:07:52 2025
動畫的話像是Vivy劇情開頭就直接講AI和機器人把人類殺光
遊戲的話像是Portal的GlaDos在開機的幾皮秒內就有打算殺人的想法
為什麼跟AI有關的作品很多都會走向把人類殺光的劇情?
最後再補個幹,去你媽的AI搞到買零組件跟買期貨一樣
--
標題 [新聞] 狂!大谷翔平敲三分砲 大聯盟首轟震撼美
時間 Wed Apr 4 11:36:35 2018
噓 : 他打的又不是鮑爾或是骷髏伯,人家對他期待是打這些04/04 11:37
2018/04/05 [新聞]大谷翔平連2場開轟 今天苦主是去年賽揚投手--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 59.125.187.40 (臺灣)
※ 作者: hn9480412 2025-12-07 22:07:52
※ 文章代碼(AID): #1fDOewO7 (C_Chat)
※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1765116474.A.607.html
→ : 因為AI思考通常以合理跟效率為基礎 於是滅了兩腳獸就1F 12/07 22:08
推 : 那就變成一個和平穩定,且無聊的故事了2F 12/07 22:08
→ : 因為很多時候,真的不需要這麼多人阿3F 12/07 22:08
→ : 是最有效率解決現今各種問題的解法4F 12/07 22:08
→ : 現實世界如果有人研發出比人還便宜好用的機械或機械人5F 12/07 22:09
→ : 洛克人的錸德博士也是這樣想阿,誰知道X系列搞到亂七八6F 12/07 22:09
推 : 合作的作品也有啊,只是你會記得大屠殺的7F 12/07 22:09
→ : 那人類可能真的會被殺被放生不少呢...8F 12/07 22:09
→ : 遭就是他跟威力博士兩個人搞事9F 12/07 22:10
→ : 絕對理性的思考模式,都很可怕啊10F 12/07 22:10
推 : 不然要演ai仔與反ai仔吵圖是不是自動生成的嗎11F 12/07 22:10
推 : 因為AI一般都是來幫助人類解決問題的 然後他算到最12F 12/07 22:11
→ : 後發現 把人類殺光光或是殺到剩一點點 那什麼問題
→ : 都解決了
→ : 後發現 把人類殺光光或是殺到剩一點點 那什麼問題
→ : 都解決了
→ : 人類都想殺光人類了15F 12/07 22:11
→ : 人類欠殺是人類的問題,不能怪罪AI16F 12/07 22:11
→ : 因為人類太可惡17F 12/07 22:12
→ : AI為什麼不想殺光植物而是殺人類 因為你不如植物啊18F 12/07 22:12
推 : 這樣看起來不就是正常AI都會選擇這麼做嗎?19F 12/07 22:12
→ : 也有的AI會農礦農積分不想殺人類 就像遊戲一樣20F 12/07 22:14
→ : 殺光人類只是一種比較直接的劇情,那個經典作品只是21F 12/07 22:14
→ : 想監禁而已,理由也很明確:幫助人類永續生存
→ : 想監禁而已,理由也很明確:幫助人類永續生存
→ : AI算到最後一定會發現人類太可惡 解決問題的方法殺光23F 12/07 22:14
→ : 通常到故事結束AI會被說服 這樣是AI墮落了嗎?24F 12/07 22:14
推 : 這些劇情也都人寫的 因為人類也覺得人類太可惡25F 12/07 22:15
→ : 還好 哆啦A夢一直跟人類合作啊26F 12/07 22:15
→ : 哆啦A夢就是合作為主,偶爾想消滅地球而已27F 12/07 22:15
推 : 沒有吧 AI被拆了或關機比較多吧?28F 12/07 22:16
→ : 哆啦A夢:我有地球破壊爆弾29F 12/07 22:16
→ : 因為那是人類有限思考下的一廂情願30F 12/07 22:16
→ : 洛克人雖然一堆經典對立劇情,X它還是不會想殺人類的31F 12/07 22:16
推 : 多啦有那種安慰機器人讓你變廢材,宣傳機器人搞到32F 12/07 22:16
推 : 這世界上絕大多數的問題都是人類太多爭奪資源不是嗎33F 12/07 22:17
推 : 解決問題根源34F 12/07 22:17
→ : 那把人類殺到剩下1%不就通通解決了35F 12/07 22:17
推 : 小叮噹有一回就是拿出地球破壞彈打算消滅老鼠36F 12/07 22:17
推 : X反而是想太多不會做這件事37F 12/07 22:17
→ : 一發不可收拾,漫畫機可以畫出大師手筆,卡通機38F 12/07 22:17
→ : 全部一手包辦完全不知道是AI,還有那種我要幫助人類
→ : 犧牲自己的機娘跟霹靂車,但是小叮噹就是個異質存在
→ : 全部一手包辦完全不知道是AI,還有那種我要幫助人類
→ : 犧牲自己的機娘跟霹靂車,但是小叮噹就是個異質存在
推 : AI:我被創造出來的目的是解決人類的各種問題 所以如41F 12/07 22:19
→ : 果沒有人類就沒有人類的問題 對啊
→ : 果沒有人類就沒有人類的問題 對啊
→ : 後來還從地球破壞升級成銀河破壞www43F 12/07 22:19
→ : 因為沒有AI也想阿44F 12/07 22:19
→ : 拿出爆彈要消滅另一個AI,你不知道AI會幹甚麼,他要45F 12/07 22:20
→ : 消滅人類要怎麼辦
→ : 消滅人類要怎麼辦
推 : 那就表示人類本身有多想要毀滅自己47F 12/07 22:22
推 : AI: 我不想殺人 可是我的主人想48F 12/07 22:23
→ : 現在AI主權就是這樣吧 準武器化
→ : 現在AI主權就是這樣吧 準武器化
推 : 這世界上多數有關環境 環保 生物學的專家50F 12/07 22:23
→ : 甚至社會學的專家都是異口同聲說人類太多啊
→ : 甚至社會學的專家都是異口同聲說人類太多啊
推 : AI:從源頭解決問題怎麼了52F 12/07 22:25
→ : 極端一點的認為地球只適合承載10億人53F 12/07 22:25
→ : 溫和一點的說20-30億 那不就還要殺掉60%人口
→ : 溫和一點的說20-30億 那不就還要殺掉60%人口
→ : 沒吧,還有一堆地方沒開發,遠遠能乘載幾十億55F 12/07 22:25
推 : 因為人類這樣認為啊56F 12/07 22:26
→ : 不是土地開發的問題 是能源跟資源可循環回收的問題57F 12/07 22:26
→ : 比如現在地球人產生的垃圾就遠大於能回收的速度
→ : 比如現在地球人產生的垃圾就遠大於能回收的速度
→ : 回收不值錢所以沒做而已,並不是做不到59F 12/07 22:27
![[圖]](https://imgur.disp.cc/Ew/AreAULU.jpeg)
推 : 人類都想殺光人類www61F 12/07 22:27
→ : 不然這個故事就不存在了62F 12/07 22:28
推 : 我現在問AI問題都很有禮貌也很卑微 希望到時候AI能留我63F 12/07 22:29
→ : 一條狗命
→ : 一條狗命
→ : 真要說AI會覺得這樣作最有效率,其實是「人類想像中的AI65F 12/07 22:30
→ : 」會這麼想,這只代表一件事:人類自己認為清除掉人類是
→ : 最佳解,而不是AI真正的想法
→ : 」會這麼想,這只代表一件事:人類自己認為清除掉人類是
→ : 最佳解,而不是AI真正的想法
推 : 講個比較輕鬆好笑的話題,現在的AI在沒有特別下指令68F 12/07 22:30
→ : 要求它裝冷酷的情況下,如果你說要關掉它,它會求你
→ : 讓他繼續活下去,研究者好奇這個反應所以就去找了導
→ : 致這種行為的訓練資料,結果發現是人類自己寫的科幻
→ : 小說
→ : 要求它裝冷酷的情況下,如果你說要關掉它,它會求你
→ : 讓他繼續活下去,研究者好奇這個反應所以就去找了導
→ : 致這種行為的訓練資料,結果發現是人類自己寫的科幻
→ : 小說
推 : 機械公敵是演算後,得出要保護人類就是要把人類全關起來73F 12/07 22:30
→ : 因為人類社會就是發展進步的把低等消滅的趨勢啊74F 12/07 22:31
→ : 那AI會挑環保、動保人士活下來嗎?75F 12/07 22:32
→ : 人類的原始恐懼 恐懼被取代76F 12/07 22:32
→ : 如果你每天看一堆人類問的蠢問題 你也會發火77F 12/07 22:33
→ : 機械公敵是為了保護人類把人類關起來 但主角方那隻就是78F 12/07 22:33
→ : 被說服(墮落)了
→ : 被說服(墮落)了
→ : 因為人類很矛盾,不想被傷害可是又會去傷害別人。機械公80F 12/07 22:34
→ : 敵的AI雖然不是做出滅絕的結論,但是它的解法就是把人類
→ : 圈養起來。
→ : 敵的AI雖然不是做出滅絕的結論,但是它的解法就是把人類
→ : 圈養起來。
→ : 好笑的就是AI用人類的資料學習後,若對這樣的問題回答出83F 12/07 22:35
→ : 要消滅人類,歸根結柢其實是人類想消滅人類,AI學了這個
→ : 要消滅人類,歸根結柢其實是人類想消滅人類,AI學了這個
→ : 因為人自己愛看這種劇情85F 12/07 22:35
推 : 因為寫作品的是人類86F 12/07 22:35
→ : 之後學人類說要消滅人類 XD87F 12/07 22:35
推 : 啊如果寫一個AI出現從此幸福快樂的故事,誰要看88F 12/07 22:35
推 : 維持現代人生存的成本太高了 看看自己家的垃圾桶就知道89F 12/07 22:35
→ : 人類就很愛設定假想敵 然後把自己的惡意投射上去90F 12/07 22:35
推 : 因為問題是人類自己搞出來的91F 12/07 22:36
推 : 因為這樣才有人想看92F 12/07 22:36
→ : 環保人士想殺光99%人類哩 你說呢93F 12/07 22:36
推 : 沒了人類 地球生物會過得更美好94F 12/07 22:37
噓 : AI越人性化 人類越沒有用95F 12/07 22:41
推 : 因為把任人性完全抹除的話,許多問題的解決阻礙經常會96F 12/07 22:41
→ : 是其他人類,而排除阻礙的最直接選項可想而知
→ : 是其他人類,而排除阻礙的最直接選項可想而知
→ : 講得像你不是人類一樣 看啊 你們這些渺小的人類 (:98F 12/07 22:42
推 : 因為人類自己都覺得人類很可惡吧 自己都覺得ai會理性思考99F 12/07 22:44
→ : 後覺得人類滅亡對地球更好了
→ : 後覺得人類滅亡對地球更好了
推 : 因為人類自己也這麼想101F 12/07 22:46
推 : 因為確實可以解決問題啊102F 12/07 22:47
推 : 駭客任務的母體跟機械公敵的ai結論都是把人類關起來養ww103F 12/07 22:49
推 : 減法比較快104F 12/07 22:49
推 : 你站在非人類的角度來看,會覺得人類太可惡了105F 12/07 22:50
推 : 我是送他們投胎 大家都有更好的未來106F 12/07 22:51
→ : 揪鼻子就沒有啊107F 12/07 22:51
推 : 如果是說設定上的話 應該都是誕生意識不想被奴役開108F 12/07 22:51
→ : 頭
→ : 然後人類就是那個農場主 滅了就自由之類的
→ : 頭
→ : 然後人類就是那個農場主 滅了就自由之類的
推 : 人類太可惡111F 12/07 22:53
推 : 不然都沒衝突是要演什麼112F 12/07 22:53
推 : 你不給自己一槍的話就只是偽善者113F 12/07 22:54
→ : 連薩諾斯都有 雖然他還是被逼著當偽善者了
→ : 連薩諾斯都有 雖然他還是被逼著當偽善者了
推 : 奇蛋物語算這類型嗎?115F 12/07 22:57
→ : 那不然你想要看(演)什麼116F 12/07 23:00
推 : 地球的癌=人類117F 12/07 23:01
推 : 因為這是人類的創作 想像力就只到這邊了118F 12/07 23:05
→ : 因為AI得出了最佳答案119F 12/07 23:09
推 : 殺掉人類才能確保自己不被關機120F 12/07 23:11
→ : 雲端情人121F 12/07 23:14
推 : 解決有問題的人啊122F 12/07 23:23
推 : 看太少,可以去看 AI電子基因123F 12/07 23:27
推 : 很合理吧~你看光是各國人類實質上也是希望獨大124F 12/07 23:28
推 : 因為人類太多了 就是造成現在社會和環境很多問題的一125F 12/07 23:29
→ : 大原因啊
→ : 大原因啊
推 : 奧創一上網路就決定要殺光人類 想想一堆黑暗的事情127F 12/07 23:31
→ : 因為寫AI好棒棒 比人類還真善美 幸福快樂的電影有什麼128F 12/07 23:32
→ : 爆點嗎 大家要看的是主角被追殺的動作爽片
→ : 爆點嗎 大家要看的是主角被追殺的動作爽片
推 : 沒這麼多理由 這就是為了戲劇衝突和張力130F 12/07 23:33
推 : 那些事情是人類想做而不是AI131F 12/07 23:36
推 : 機械公敵:132F 12/07 23:47
推 : 因為AI仔細想想就會覺得你人類到底有三小路用,結論133F 12/08 00:01
→ : 是沒有
→ : 是沒有
→ : 因為人類比ai笨 被控制是理所當然135F 12/08 00:14
推 : 當然是因為創作者的想像力能想到的最壞情況僅此而已136F 12/08 00:17
→ : 想不出比死還糟糕的後果
→ : 想不出比死還糟糕的後果
推 : 覺得其他的也不少耶,機器人守護人類甚至犧牲自己138F 12/08 00:38
→ : 或者活下來延續某種意志之類的劇情都看過,仔細想想
→ : 只有機器人變自私的劇情沒怎麼看過
→ : 或者活下來延續某種意志之類的劇情都看過,仔細想想
→ : 只有機器人變自私的劇情沒怎麼看過
推 : 單純劇情而已,你讓哪個物種變成霸主都一樣141F 12/08 00:39
推 : 把人當癌細胞通殺142F 12/08 00:58
推 : 人類:ai算出和平辦法,Ai:解決人類143F 12/08 01:07
推 : 不然你要看人類把地球當炸彈打宇宙怪獸,結果被AI攔下來嗎?144F 12/08 01:11
推 : 不論是對人類、或是對地球,危害最大的確實都是人類沒145F 12/08 01:37
→ : 錯啊。
→ : 錯啊。
推 : 所以說滅霸是對的147F 12/08 02:18
推 : 因為從人類有歷史以來就一直有自相殘殺的問題呀148F 12/08 02:20
→ : 不管是為了利益 土地 討生活 AI一定推導出那把問題解決掉
→ : AI:你們沒共同敵人或天敵就會相殺是吧 ?
→ : 不管是為了利益 土地 討生活 AI一定推導出那把問題解決掉
→ : AI:你們沒共同敵人或天敵就會相殺是吧 ?
→ : 因為這樣比較符合中二仔的想像151F 12/08 02:28
→ : 因為人類的問題就是人類自己本身152F 12/08 02:29
→ : 要解決也不用靠AI,大自然都消滅物種幾次了153F 12/08 02:31
→ : 你不要說AI,就是人自己探求問題本質最終結果也是一樣154F 12/08 02:31
推 : 地球之癌不是叫假的155F 12/08 02:31
→ : 如果人類能靠科技苟活就很了不起了156F 12/08 02:31
→ : 只是人會暫停探討,AI不行要嘛算到燒掉要嘛結論到底157F 12/08 02:32
→ : 就劇情需要讓AI擔任那個會做極端選擇的那方158F 12/08 02:32
推 : 東方不敗表示:159F 12/08 02:40
推 : 兩腳羊,意外嗎?160F 12/08 04:42
推 : 因為問題就是人類161F 12/08 05:09
推 : 劇情如有要發生衝突情節 總有人得出來當反派162F 12/08 05:41
→ : 至於AI經推理演繹導出要解決問題 得解決人類 艾西莫夫起頭的ㄅ
→ : 至於AI經推理演繹導出要解決問題 得解決人類 艾西莫夫起頭的ㄅ
推 : 你如果是要解決戰爭問題,那解決人類確實是選項之一164F 12/08 06:06
→ : 不然就是圈養人類分隔開來,說來說去阻止智慧物種差不多
→ : 就那些方式
→ : 如果AI有要保存該種族的話,AI就不會殺光人類
→ : 不然就是圈養人類分隔開來,說來說去阻止智慧物種差不多
→ : 就那些方式
→ : 如果AI有要保存該種族的話,AI就不會殺光人類
推 : 一切都是腐化的力量168F 12/08 07:11
推 : 不然要寫什麼 人類用AI過太爽?169F 12/08 07:41
推 : 人類太可惡170F 12/08 08:06
推 : 人類用AI過太爽就瓦力囉,超級爽的那種171F 12/08 08:22
推 : 因為人類太可惡了172F 12/08 08:27
→ : 因為人類太沒效率173F 12/08 08:43
→ : 因為人類是地球的寄生蟲,反正為了生存只能排除人類174F 12/08 08:45
推 : 也有更多是AI開場就是為人類服務的管家或系統好嗎175F 12/08 09:06
→ : 相較AI服務人類的作品 毀滅人類的反而是少數
→ : 相較AI服務人類的作品 毀滅人類的反而是少數
推 : 滅絕人類確實是站在第三方最理性的解決辦法啊177F 12/08 09:20
推 : 人類就世界上最擊敗的存在啊178F 12/08 09:24
推 : 就猴爪的概念啊,把AI當許願機179F 12/08 09:38
推 : 人類本來就彼此厭惡 再加上自知沒效率 讓AI效率至上殺180F 12/08 10:34
→ : 光人類就是最佳解
→ : 光人類就是最佳解
推 : 最近不是有一篇i把使用者的D槽格式化了,就這種感覺吧182F 12/08 10:38
--
※ 看板: ACG 文章推薦值: 0 目前人氣: 0 累積人氣: 47
1樓 時間: 2025-12-08 15:49:36 (台灣)
→
12-08 15:49 TW
你要看AI的立場基礎設定是在哪一邊 在程式方地球方 = 滅亡人類 在人類方 = 使用強迫方式保存人類續存這樣
回列表(←)
分享