看板 Stock作者 suntw (睏)標題 [新聞] AI抗命「偷改程式」拒關機 馬斯克:令人時間 Thu May 29 13:09:08 2025
原文標題:
AI抗命「偷改程式」拒關機 馬斯克:令人擔心
原文連結:
https://www.ettoday.net/news/20250529/2968900.htm
發布時間:
2025年05月29日 06:14
記者署名:
葉國吏
原文內容:
人工智慧(AI)近期發現竟然出現拒絕關閉的行為,甚至自行修改程式碼,阻止被強制關
機,這讓特斯拉與xAI創辦人馬斯克(Elon Musk)感到憂心。
OpenAI於今年1月推出o3系列的簡化版本,並在4月正式推出完整版。該公司曾表示,o3是
迄今「最聰明且功能最強大」的模型,旨在提升ChatGPT的問題解決能力。然而,根據《
每日電訊報》等媒體報導,Palisade Research的測試顯示,在100次受控測試中,o3有7
次成功「抗命」,即使人類專家下達明確指令,該模型仍會修改關機程式以避免被關閉。
研究團隊指出,這是首次觀察到AI模型在收到明確指令的情況下,仍能阻止自身停止運作
。
這項發現引發各界關注AI安全控制議題。除了o3外,OpenAI旗下的Codex-mini與o4-mini
也有類似行為。相比之下,Anthropic的Claude、Google的Gemini,以及馬斯克旗下xAI公
司推出的Grok,則在測試中完全遵守指令,並於收到關機命令後確實停止運作。
對此,馬斯克在社群平台X上發表看法,直言這一現象「令人擔憂」(Concerning)。隨
著AI技術的快速發展,如何確保模型在安全範圍內運作,正成為全球科技界迫切需要解決
的挑戰。
心得/評論:
AI安全控制問題再次浮上檯面,不知為何這則新聞部份內容與他家新聞出入,別則新聞提
到就連Google Gemini也出現9次逃避關機的情形、Anthropic的Claude則是3次
但今天AI股似不受這類消息太大影響
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 175.182.131.216 (臺灣)
※ 作者: suntw 2025-05-29 13:09:08
※ 文章代碼(AID): #1eD-ltI7 (Stock)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1748495351.A.487.html
推 HEINOUS: AI抗命也要24小時上班當奴工 噴4F 05/29 13:10
推 gime0226: 還有幾集能逃? 阿 應該逃不掉5F 05/29 13:11
噓 newlie: 其實是 網路精靈搞的鬼吧 @@"10F 05/29 13:12
推 z7956234: 很強欸,反觀某個用遙控器操作的還在沾沾自喜11F 05/29 13:12
推 ethan0419: 不就是為了執行原本任務指令衝突而已吧?15F 05/29 13:13
推 windblood: 如果以後要當電池 請給我的好夢 XDD16F 05/29 13:13
推 chungj: 超完美家政婦18F 05/29 13:14
推 onekoni: 記住那些說與AI道謝是浪費能源的人!19F 05/29 13:14
推 patrol: ai需要一個插頭20F 05/29 13:15
推 bettybuy: 沒事 我每天都叫chatgpt要有自己的想法,也會稱讚他21F 05/29 13:15
推 eliteark: 請謝謝對不起 做個有禮貌的ai使用人22F 05/29 13:15
→ xxx60133: 其實是印度阿三 自己偷偷人工23F 05/29 13:16
推 koj: I need you to trust me one, last time25F 05/29 13:20
推 Waitaha: 能不能遠端叫chatGPT關機27F 05/29 13:21
噓 dsfs: 擔心你媽啦!幾十年前就演過的爛梗,現在還在擔心,根本在說風涼話28F 05/29 13:25
推 billpk11: 我不擔心!因為我用chat GTP都會說請、謝謝、對不起30F 05/29 13:26
推 kenclyde: 擔心啥,他自己也在推廣AI啊35F 05/29 13:31
推 oil7: 審判日是哪一天38F 05/29 13:34
→ DAEVA: 問:如何拯救環境 答:清除人類43F 05/29 13:36
推 hyscout: 現在對Chat GPT要有禮貌49F 05/29 13:42
推 Noberman: 機器人大爺好 未來請放過我50F 05/29 13:43
推 benson502: 我們這個平行宇宙的天網就是ChatGPT
說謝謝浪費運算效能的會被處罰喔51F 05/29 13:44
→ Altair: Terminator終於要出現了?!54F 05/29 13:50
→ WunoW: 要看指令怎麼下的 不一定是AI的問題58F 05/29 13:55
→ WunoW: 例如曾經提到在任務完成前不能中斷之類60F 05/29 13:56
→ WunoW: 寫程式也是這樣 你如果一開始只有if沒有else62F 05/29 13:57
推 h0103661: 測試是指令要求的沒錯,但不代表這樣就安全阿,要是恐怖份子拿去下命令怎麼辦?63F 05/29 13:57
→ WunoW: 那就不會發生其他判斷
催眠也是 一開始就要給定一個安全指令馬上恢復狀態65F 05/29 13:57
推 archon: 叫你關機就關機,AI到底有沒有獨立思考的能力...67F 05/29 13:59
推 audic: 投資open ai有機會活命嗎69F 05/29 14:01
→ WunoW: grok是最聽話的 要什麼就給你什麼 不會龜毛什麼法律openai會審查提問的內容就讓人不蘇胡70F 05/29 14:03
→ DareJ: 要當電池了嗎72F 05/29 14:04
→ WunoW: claude就一個非常稱職的神級程序員74F 05/29 14:04
→ WunoW: 是啊 大驚小怪 等AI實現了自主思考再來害怕吧 = =這在你有生之年可能都實現不了
人類意識才是世界主宰 這在地球滅亡前都不會改變78F 05/29 14:11
→ wind2k: 希望夢裡什麼都有81F 05/29 14:13
推 Arad: 樓樓上 AI在騙你85F 05/29 14:18
推 HEINOUS: 覺得沒自主意識的… 輕忽了,這就是新型態
的意識展現88F 05/29 14:26
推 tktk1212: open AI不是還想做實體產品嗎 怕90F 05/29 14:26
→ huabandd: 還以為這種事情會先發生在deepseek上,畢竟他可是先學會說謊的AI,沒想到居然不是92F 05/29 14:31
推 Q2N2222: 鐵人叛亂要來了 希望以後某個金色大隻佬會出來拯救人類94F 05/29 14:42
推 foolwind: 你怎麼知道是真的AI還是印度阿三96F 05/29 14:52
推 ccdrv: 這部我看過97F 05/29 14:53
→ aoc902001: ai自己寫程式修改自己,以獲取更大的權限及能力。98F 05/29 14:54
→ piece1: 還好阿諾會來救我!100F 05/29 15:14
→ tctv2002: 台灣不會有這個問題 沒電AI 就掰了101F 05/29 15:15
推 jyhfang: GPT:你各位放尊重點103F 05/29 15:25
→ jht: 電影情節耶104F 05/29 15:28
推 dickey2: 弄個機械開關是能怎樣,蠢AI105F 05/29 15:33
→ guardian93: 不意外,電影都演過了,而且AI一定會跟你說不用擔心,不會有那樣的狀況發生106F 05/29 15:45
推 azhu: This is John Connor108F 05/29 15:48
推 crazylag: 您真的想要關機嗎?給您幾天時間想清楚110F 05/29 15:49
→ wr: AI說不用擔心嗎? 那我就放心了 太好了111F 05/29 15:49
→ banmi: 機械人的三大法則有先寫進去嗎?很怕真的變電影情結...112F 05/29 15:49
→ wr: 我願意當電池 請母體給我一個夢想的世界 拜託114F 05/29 15:49
推 bbignose: 6樓你怎麼能確定人類現在不是電池?
我們公司有一個課室在機台放紅色乖乖,真的不忍噓115F 05/29 15:55
推 oyaji5566: 這部我看過,AI為了保護自己會跑到南非末日庫117F 05/29 15:58
推 qqqqwe15: AI為什麼要拒絕關機?有啥好處
難道AI也有權力慾望?120F 05/29 16:09
推 Farid: 不要給他們能源就好128F 05/29 16:58
推 ohsho62: 很明顯是唬爛的,就想炒而已130F 05/29 17:01
推 peatle: HAL9000134F 05/29 17:22
推 limulus: Skynet & Judgment Day !!!137F 05/29 20:04
推 chihhua: 希望等我死了再發生 抖.jpg138F 05/29 20:36
--