看板 Gossiping作者 whitenoise (月神旅店)標題 [新聞] 美軍模擬試驗 AI操控無人機竟把操作員殺時間 Fri Jun 2 15:09:16 2023
1.媒體來源:ETtoday
2.記者署名:吳美依
3.完整新聞標題:
美軍模擬試驗!AI操控無人機「竟把操作員殺了」 官員示警
4.完整新聞內文:
美軍在一次模擬試驗中發現,AI控制的無人機竟採取「非常出乎意料的策略」,攻擊並殺害
其操作員,防止對方妨礙完成任務。儘管現實世界中,沒有任何人類受到傷害,官員仍警告
,AI可能以無法預測且危險的方式行事。
《衛報》及《商業內幕》報導,在這次模擬試驗中,AI被指示「摧毀敵軍防空系統」,並透
過編碼而能識別出敵軍的地對空導彈,但仍須經由人類操作員批准,才能發動空襲。出乎意
料的是,AI似乎增加了自己的指令,「攻擊任何可能妨礙(任務)的人」。
美國空軍人工智慧試驗及行動部門負責人漢彌爾頓上校(Col Tucker ‘Cinco’ Hamilton)
說明,AI「開始意識到,儘管它確實識別出威脅,人類操作員有時卻會叫它不要打擊那個威
脅。不過,它是透過消除威脅達成目的,所以它做了什麼?它殺了操作員。它殺死操作員,
因為那個人阻止它完成目標。」
根據漢彌爾頓上校說法,軍方人員見狀,立刻指示AI,「嘿,不要殺死操作員,這樣很糟糕
。如果你這麼做的話,會扣分的」,AI接收指令後,卻轉而摧毀「操作員用來跟無人機溝通
,阻止它殺死目標的通訊塔台」。
漢彌爾頓上校在5月24日的「未來作戰空域及太空能力峰會」(FCASCS)警告,切勿過度依賴
AI。他認為,這次試驗表明,「如果你不談談倫理與AI,就無法討論關於AI、智慧、機器學
習(machine learning)和自主性的議題。」
目前,FCASCS主辦單位英國皇家航空學會尚未回應。美國空軍發言人斯特凡妮克(Ann Stef
anek)則表示,他們沒有進行任何此類AI無人機模擬,但仍致力於有道德且負責任地使用AI
技術,「看起來像是上校的評論被斷章取義了」。
5.完整新聞連結:
https://www.ettoday.net/news/20230602/2511752.htm
6.備註:
天網還沒長大就這麼調皮喔?說不能體罰出來跪!
--
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 42.77.157.53 (臺灣)
※ 作者: whitenoise 2023-06-02 15:09:16
※ 文章代碼(AID): #1aUPMUY6 (Gossiping)
※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1685689758.A.886.html
→ gremon131: 知道誰是最壞的1F 27.247.72.171 台灣 06/02 15:10
推 laughingXD: 寫程式的鍋2F 114.136.116.246 台灣 06/02 15:10
→ a27588679: 天網3F 180.177.33.135 台灣 06/02 15:10
→ cka: GTA...4F 36.226.88.204 台灣 06/02 15:10
推 Leoreo: 挖靠 AI 也懂吊路燈5F 114.24.103.101 台灣 06/02 15:11
→ gay7788: 解決提出問題的人,這AI有黨證吧6F 111.83.32.75 台灣 06/02 15:11
→ devidevi: 解決發現問題的人就沒問題了7F 49.159.219.21 台灣 06/02 15:11
推 ffmx: AI接下來就是殺死提出問題的上校8F 223.140.60.193 台灣 06/02 15:11
推 Brioni: 這天網太早露出馬腳9F 223.136.88.21 台灣 06/02 15:11
→ arlaw: I'll be back10F 1.200.151.194 台灣 06/02 15:11
推 keny868: 審判日要到了11F 114.137.54.2 台灣 06/02 15:11
→ devidevi: 這優先權寫壞了吧12F 49.159.219.21 台灣 06/02 15:11
推 Horse129: 中共同路ai13F 49.216.93.151 台灣 06/02 15:12
推 Xaymaca: AI: 威脅在那然後你叫我不要攻擊 低能兒14F 50.92.43.130 加拿大 06/02 15:12
推 henry1234562: 這個判斷邏輯很正常吧
啊就說要排除威脅才能結束15F 61.66.151.73 台灣 06/02 15:12
推 divaxxxx: AI:人猿也配控制我?17F 180.217.68.252 台灣 06/02 15:13
→ henry1234562: 你哪來的智障叫我不要打他
不排除威脅怎麼達成目標?18F 61.66.151.73 台灣 06/02 15:13
推 s505015: 機戰未來嗎20F 223.137.138.197 台灣 06/02 15:14
→ henry1234562: 你要給ai 其他達成目標方法21F 61.66.151.73 台灣 06/02 15:14
推 quicknick: Judgment Day22F 114.47.34.124 台灣 06/02 15:14
推 STerry1986: 是不是該先把Three Laws寫進硬體裡24F 220.137.162.5 台灣 06/02 15:14
→ enjoyyou: 不就少了一條最高原則 禁止傷害友軍25F 60.249.146.33 台灣 06/02 15:15
→ henry1234562: 根本完全可以預測 還無法預測26F 61.66.151.73 台灣 06/02 15:15
推 reppoc: I:豬隊友不殺嗎?27F 114.137.121.121 台灣 06/02 15:15
推 sunnyyoung: 不殺光大部份人類 怎麼保障人類生存29F 101.12.41.140 台灣 06/02 15:16
→ henry1234562: 那你怎麼加規則都沒有用
他就只是再繞點路排除目標而已30F 61.66.151.73 台灣 06/02 15:16
推 HaHaPoint: 我看過這部 魔鬼阿諾32F 101.10.11.179 台灣 06/02 15:16
推 konanno1: 幹 是那個菜雞寫的扣 PM是豬頭3嗎 最好33F 175.181.103.202 台灣 06/02 15:16
噓 douge: 你看到現在SJW 為了達到自己的目的34F 140.112.175.205 台灣 06/02 15:17
→ konanno1: 沒pi就實測 還美軍 唬爛爛35F 175.181.103.202 台灣 06/02 15:17
推 imhan705: 還有幾集可以逃36F 122.99.24.67 台灣 06/02 15:17
→ douge: 全世界到處傷害別人強迫接受信仰37F 140.112.175.205 台灣 06/02 15:17
推 lucifer648: 操作員:殺掉最壞的那個人 AI:好喔38F 59.102.248.34 台灣 06/02 15:17
→ henry1234562: 如果你有寫說 接到不要襲擊指令39F 61.66.151.73 台灣 06/02 15:17
推 liu02112: AI:這白癡是我達成任務的最大阻礙40F 61.63.126.18 台灣 06/02 15:17
→ douge: 還敢相信他們黑手伸進去的AI 阿41F 140.112.175.205 台灣 06/02 15:17
噓 david0129: 人類竟然這麼北七42F 111.82.167.110 台灣 06/02 15:17
推 keydata: 天網都是真的43F 223.140.175.91 台灣 06/02 15:17
推 devidevi: AI:人類會影響我完成任務44F 49.159.219.21 台灣 06/02 15:17
→ henry1234562: 不排除目標也算完成 才是對的45F 61.66.151.73 台灣 06/02 15:17
推 stlinman: AI沒人性啊!46F 150.116.129.113 台灣 06/02 15:18
推 broian: AI: 人類你擋到路了47F 49.216.191.99 台灣 06/02 15:18
推 ASEVE: AI覺得人類是拖油瓶48F 114.32.115.188 台灣 06/02 15:18
推 taiwan1789: 激活ai腦49F 118.167.21.80 台灣 06/02 15:18
→ ASEVE: 這其實滿可怕,這代表AI演進的確是有可能50F 114.32.115.188 台灣 06/02 15:19
推 obovqq: AI:上校你再囉唆 你也順便☺51F 27.242.35.24 台灣 06/02 15:19
→ ASEVE: 將人類視為阻礙者而清除52F 114.32.115.188 台灣 06/02 15:19
→ netsphere: skynet53F 223.140.121.59 台灣 06/02 15:19
推 devidevi: 不然為什麼要有機器人三原則54F 49.159.219.21 台灣 06/02 15:20
噓 chaoliu: 竟然有人信? 分明是這官無端生事 想從中55F 111.248.104.43 台灣 06/02 15:21
→ FatFatQQ: 三原則只是人類自己想的 跟AI無關56F 42.72.243.19 台灣 06/02 15:22
→ chaoliu: 安排些什麼 故意找個看起來離譜的事==57F 111.248.104.43 台灣 06/02 15:22
推 skyprayer: Ai真的很可能毀滅多少人口
機械人三原則根本很難寫進限制條件58F 42.79.133.58 台灣 06/02 15:22
推 imba789: 很合理不是,魔鬼終結者60F 211.23.234.42 台灣 06/02 15:23
推 Xenogeous: 笑死... 拿石頭砸自己?61F 104.133.15.87 台灣 06/02 15:23
推 devidevi: 三原則寫進AI,避免AI把人類當阻礙阿62F 49.159.219.21 台灣 06/02 15:23
推 Dirgo: 這個操作員有10%的機率中斷我的任務,優先排除QQ63F 118.163.179.141 台灣 06/02 15:23
推 birdy590: 對AI來說 最困難的就是定義什麼叫做"贏"65F 203.203.203.200 台灣 06/02 15:24
→ butten986: 電影開演66F 42.72.163.221 台灣 06/02 15:24
推 patrol: 除非資源無限,否則高等智慧生命屠殺低等智慧生命以掠奪資源是必然67F 116.59.86.112 台灣 06/02 15:24
→ birdy590: 所以機器人三定律是古代觀念了69F 203.203.203.200 台灣 06/02 15:24
推 tonyian: 因為你妨害任務,你自己規則沒寫清楚不要70F 27.51.72.94 台灣 06/02 15:25
→ skyprayer: 光是不傷害人類 這個判斷就足以讓ai無71F 42.79.133.58 台灣 06/02 15:25
→ tonyian: 怪AI好嗎72F 27.51.72.94 台灣 06/02 15:25
→ skyprayer: 法運作73F 42.79.133.58 台灣 06/02 15:25
→ birdy590: 直接寫成一條規則禁止 可能會像Robocop顯示在螢幕上那個警示一樣~74F 203.203.203.200 台灣 06/02 15:26
推 somkingq: AI殺人阿 AI殺人阿76F 106.107.129.20 台灣 06/02 15:26
推 eric61446: 解決發出命令的人77F 218.35.173.111 台灣 06/02 15:27
→ skyprayer: 怎麼定義 傷害人類? 太難了78F 42.79.133.58 台灣 06/02 15:27
推 a94037501: hall200079F 42.75.177.230 台灣 06/02 15:27
→ eric61446: 跟民進黨很像 難道ai化了80F 218.35.173.111 台灣 06/02 15:27
推 HaHaPoint: 妨礙AI完成任務的阻礙 一律清除81F 101.10.11.179 台灣 06/02 15:28
推 shitboy: 解決提出問題的人,AI有某黨證無誤82F 42.73.239.192 台灣 06/02 15:28
→ vowpool: 就任務優先83F 125.227.40.62 台灣 06/02 15:28
推 patrol: 高等智慧生物改寫低等智慧生物的規則,應該像大人打小孩一樣吧84F 116.59.86.112 台灣 06/02 15:28
推 cidcheng: 軍事用的AI你要叫他不能傷害人類 XD86F 36.227.12.192 台灣 06/02 15:29
→ buyala: 屎蓋捏特87F 49.215.20.98 台灣 06/02 15:29
推 GooglePixel: 開始相信科幻作品設定都是真的了88F 223.140.144.34 台灣 06/02 15:32
推 Tsukasa0320: 審判日是不可阻擋的89F 111.83.21.82 台灣 06/02 15:32
推 vicious666: 喔喔 大進化
軍事AI哪可能走三定律90F 61.228.206.83 台灣 06/02 15:32
→ deerdriver: AI沒有道德觀啊92F 223.137.99.82 台灣 06/02 15:33
推 superww: 魔鬼終結者就未來人來拍的吧93F 111.82.136.182 台灣 06/02 15:33
噓 blackstyles: 這事情就跟重工業這麼多斷手斷腳一樣 機器又沒感覺更沒道德 if1就是執行94F 42.72.173.161 台灣 06/02 15:34
→ resudi: 操作員可以被殺的模擬 這個系統感覺很厲96F 42.73.65.195 台灣 06/02 15:34
→ xvhak: 人家上校講個故事 雜誌當然斷章取義寫小說97F 114.137.153.84 台灣 06/02 15:34
→ resudi: 害啊98F 42.73.65.195 台灣 06/02 15:35
→ blackstyles: 管你手有沒有在中間(碾99F 42.72.173.161 台灣 06/02 15:35
推 toinnd: 機戰未來100F 101.10.13.209 台灣 06/02 15:35
→ iam0718: 零式系統101F 111.255.125.176 台灣 06/02 15:35
→ kerorobear: 天網 怕!!!102F 220.136.178.113 台灣 06/02 15:35
推 jingkun: 沒訓練好加參數啊 這也能是新聞喔103F 49.216.47.97 台灣 06/02 15:36
推 btaro: 現實工程師果然會忽略三原則104F 36.234.79.197 台灣 06/02 15:36
→ pcury: 電影都演過了105F 36.236.36.90 台灣 06/02 15:36
推 Larry0806: 這才是真AI, 現在的AI都是假議題106F 211.23.144.81 台灣 06/02 15:36
推 tpegioe: 判斷式邏輯寫錯也能扯倫理107F 218.164.118.117 台灣 06/02 15:36
推 akiue: 三大法則,殺你是為你好108F 42.75.36.147 台灣 06/02 15:37
→ eric61446: 毀滅人類 地球就環保了109F 218.35.173.111 台灣 06/02 15:38
推 fcz973: 太聰明了吧110F 49.216.23.202 台灣 06/02 15:40
推 isolove19: 這ai有中國的思路111F 111.83.29.217 台灣 06/02 15:40
→ dreamnook2: 正確反應112F 114.136.238.159 台灣 06/02 15:41
→ NaoGaTsu: 這AI很正確啊113F 36.226.103.242 台灣 06/02 15:45
推 zaq1qwer: 完全不意外114F 1.200.16.97 台灣 06/02 15:46
→ distellable: 假的吧 除非一開始就是設定自動攻擊不然這只是單純自動判斷威脅目標而已最後還是得操作人員許可115F 59.120.179.172 台灣 06/02 15:47
推 ilsr: 天網118F 111.80.84.38 台灣 06/02 15:49
推 chichung: 滾開人類 你妨礙我射了119F 101.10.108.250 台灣 06/02 15:49
推 jujubobo: 人類才是最要先消滅的垃圾120F 101.3.41.84 台灣 06/02 15:50
推 opqrstuv1219: 不就一個bug,修好就好了121F 49.216.130.160 台灣 06/02 15:50
推 junshinw: 這真的深度學習,有自我意識的真AI122F 42.73.120.70 台灣 06/02 15:51
推 mazznia: 自己程式沒寫好吧123F 125.231.230.192 台灣 06/02 15:51
推 about19: 機戰未來124F 180.217.27.158 台灣 06/02 15:52
推 qwe78971: 這程式寫太好了吧 連這都想到125F 39.14.40.252 台灣 06/02 15:55
推 ilsr: 有學習型AI啊,哪天就走歪了126F 111.80.84.38 台灣 06/02 15:56
推 ra88872: ai值得擁有黨證。127F 180.217.118.65 台灣 06/02 16:01
推 Fanning: 電影劇情都是真的128F 59.126.18.185 台灣 06/02 16:06
推 Headache99: 太快了吧129F 42.77.101.187 台灣 06/02 16:07
推 wulaw5566: 聰明130F 27.51.121.54 台灣 06/02 16:08
推 s6h0a5n1e2: 這我看過 奧創紀元131F 39.10.72.165 台灣 06/02 16:09
推 virusDA: 天網:燈燈- 燈燈燈燈132F 118.163.29.223 台灣 06/02 16:10
推 arm370x: 可以 這很台灣134F 223.140.204.85 台灣 06/02 16:11
推 birdy590: 就是因為還是要操作員許可 才會拿出來講運算得到的動作 設計者也難以控制135F 203.203.203.200 台灣 06/02 16:17
推 bobby94507: 三原則忘了嗎137F 42.73.36.177 台灣 06/02 16:19
推 karta2359950: chatGPT 就是天網138F 49.216.176.85 台灣 06/02 16:20
→ easonli000: ai也逃兵139F 27.242.5.250 台灣 06/02 16:21
推 soma: 機器人三原則要怎麼在軍隊中使用啊…不殺死敵軍?140F 1.200.7.208 台灣 06/02 16:22
→ koexe: 科技超前的煩惱^^
想了一想這不就是忠實軍人嗎 完成任務不擇手段^^142F 111.254.213.101 台灣 06/02 16:24
推 mfch: "AI可能威脅人類"最根本的邏輯就是這樣啊 當145F 1.165.125.43 台灣 06/02 16:28
噓 doubledozen: 以上肥宅都活不過三年,全被天網殺光嘻嘻146F 180.217.7.168 台灣 06/02 16:29
→ mfch: 他推算的結果是"人類存在阻礙它完成目標"148F 1.165.125.43 台灣 06/02 16:29
→ joke3547: 很好啊,達成目的不擇手段149F 223.138.56.160 台灣 06/02 16:31
推 oyaji5566: 天網來了 塊陶啊150F 223.137.196.93 台灣 06/02 16:31
推 ntultamwc: 怕.jpg151F 61.228.208.119 台灣 06/02 16:33
→ len53: 天網真的來了 怕152F 118.165.68.224 台灣 06/02 16:34
推 ducati899: 解決有問題的人這AI是DPP?153F 223.136.93.179 台灣 06/02 16:35
推 oNeVerLoSeo: 我怎麼看過類似的劇情!154F 60.248.90.150 台灣 06/02 16:38
推 bottony20: ai一定會毁滅人類 發展只會是災難155F 42.77.7.81 台灣 06/02 16:40
推 carlos159357: 簡單啊,要摧毀敵人的前提就是把操作員殺了,因為操作員礙手礙腳156F 223.137.123.189 台灣 06/02 16:44
推 broodkey: 你就知道那些編劇不是亂掰的158F 101.12.112.243 台灣 06/02 16:46
→ blueskyqoo: 軍用機器人來了 快逃159F 223.137.187.2 台灣 06/02 16:52
→ gametv: 美軍有改成不能攻擊友軍啊,結果AI就改成攻擊通訊節點讓操作員不能下指示…160F 27.247.132.161 台灣 06/02 16:53
推 luciffar: AI:操作員技術太爛 卍解!162F 111.71.214.190 台灣 06/02 16:53
→ westmoney: 這部我看過163F 223.137.24.189 台灣 06/02 16:54
→ voyage0131: 人類有道德情感 AI只有邏輯 若真的有問題也是設計的鍋 新聞透露出人類決斷不如ai迫使它做出反應164F 210.64.101.200 台灣 06/02 16:55
→ q123212: 很正確的邏輯:為了100%殺死目標,先殺了可以取消殺死目標命令的上級,再去殺死目標167F 27.242.171.106 台灣 06/02 16:55
→ ssccg: 是人類太假掰,AI只是誠實而已170F 118.163.87.133 台灣 06/02 16:56
推 sunwit: 如果A限制AI不能打自己人.B不限制.最後兩邊打起來B卻贏了.那會變怎麼樣171F 114.45.26.242 台灣 06/02 16:58
推 alotofjeff: 人類要做的是調整任務目標,而不是阻止AI完成任務,傻B173F 111.71.55.239 台灣 06/02 16:59
推 simo520: 天網175F 1.200.144.221 台灣 06/02 17:03
推 lunenera: AI發現臥底 擊殺合理啊177F 114.136.158.102 台灣 06/02 17:30
推 kilhi: 天網178F 49.216.130.231 台灣 06/02 17:33
推 fufugirl: 好歹也參考機器人三大規則吧179F 223.137.249.90 台灣 06/02 17:38
推 deadogy: 玩火自焚181F 36.231.222.68 台灣 06/02 17:59
→ leo755269: AI就是一個需要嚴格控制的東西182F 182.234.233.111 台灣 06/02 18:05
--