看板 C_Chat
作者 inthere8 (喔是喔)
標題 [新聞] 美軍AI無人機決定「殺死操作員」因人類
時間 Fri Jun  2 16:44:03 2023



完整標題:

美軍AI無人機決定「殺死操作員」 竟因人類干擾任務完成

原文網址:https://pse.is/4zdcab
【天網來了!】美軍AI無人機決定「殺死操作員」 竟因人類干擾任務完成 -- 上報 / 國際
[圖]
英國皇家航空學會日前舉行有關航空作戰的國防研討會,來自美國的軍方人員證實,他們在一次模擬測試中,一架... ...

 

上報 劉孜芹


英國皇家航空學會日前舉行有關航空作戰的國防研討會,來自美國的軍方人員證實,他們
在一次模擬測試中,一架由AI控制的空軍無人機「殺死了」無人機操作員,以防止操作員
干擾AI系統完成任務,凸顯AI不受人類控制的可能,恐怕正如科幻驚悚片《天網》(

Skynet)所預示的。



根據「英國皇家航空學會」(The Royal Aeronautical Society)新聞稿,該學會於5月
23日至24日,在倫敦舉行「未來航空及航天作戰能力峰會」(the Future Combat Air &
Space Capabilities Summit),來自軍工產業、學術界與媒體的近70位發言人以及200多
名代表,齊聚一堂討論未來航空及航天作戰能力的規模與形態。




美國空軍AI項目負責人漢密爾頓(Tucker 'Cinco' Hamilton)上校與會時警告,人類不
應該過分依賴AI,不僅ChatGPT聊天機器人等AI產品已被證實它們會欺騙人類,在美軍最
近一次的模擬測試中,AI系統甚至作出讓軍方震驚的策略選擇,以實現它的任務目標。


漢密爾頓指出,在這次模擬測試中,一架支援AI操作的無人機,以摧毀敵方的地對空飛彈
(SAM)防空系統作為任務目標。當初在設計這款無人機時,任何行動執行的最終決定權
本來仍在操作人員手裡。然而,在測試時,AI系統認為操作人員「不摧毀敵方飛彈」的決
定,會阻礙它完成任務。於是,AI決定殺死無人機操作員。


備受驚嚇的美軍只好在該系統輸入參數,要求AI不可以攻擊或殺死操作人員。漢密爾頓說
:「我們告訴AI系統,嘿,別殺了操作員,這很糟糕。如果你這樣做,你會失去分數。但
是,你猜AI開始做什麼?」



漢密爾頓坦言,AI系統決定攻擊無人機與操作人員之間的通訊系統,讓操作員無法下令。


完整內容+照片請見原文

心得:

看到覺得可怕但站在ai的角度想又...怎麼好像有點合理??!!
而且ai真的也太聰明了吧(抹臉),聰明到好驚悚

--
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.227.75.215 (臺灣)
※ 作者: inthere8 2023-06-02 16:44:03
※ 文章代碼(AID): #1aUQlLVQ (C_Chat)
※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1685695445.A.7DA.html
Edison1174: 機戰未來1F 06/02 16:45
morichi: 是妳嗎 雷電將軍2F 06/02 16:45
dearbarry: 又是英國3F 06/02 16:45
error405: 邏輯正確4F 06/02 16:46
GAOTT: 鷹眼5F 06/02 16:46
devidevi: AI:清除阻礙者沒錯啊6F 06/02 16:46
iqeqicq: 人類該開發念力來反制了7F 06/02 16:46
JamesHunt: 機戰未來都是真的8F 06/02 16:46
Giornno: 人類只會減慢我開槍的速度9F 06/02 16:47
sasmwh561: 機戰未來電影都成真了10F 06/02 16:47
npc776: 早上不是才一篇11F 06/02 16:47
andy78328: 感覺是設計好的 不能攻擊友軍這指令一開始就要給吧12F 06/02 16:47
npc776: 怎麼看都只是優先級寫錯了而已13F 06/02 16:48
yumenemu610: 這個劇情我看過14F 06/02 16:49
Lhmstu: 開始有各種蠢到不知道怎樣的報導出來15F 06/02 16:49
a3831038: 英國新聞16F 06/02 16:50
dreamnook2: 正確的抉擇 Humans are overrated17F 06/02 16:50
chuckni: AI最終發現最有效的方式是消滅人類讓AI全面取代18F 06/02 16:51
bigcho: AI沒有三原則嗎19F 06/02 16:52
Gwaewluin: 機器人三原則記得裝一下20F 06/02 16:53
eric999: 三原則只是小說劇情 實際不存在21F 06/02 16:54
kissung: 閃開!!人類!妨礙到我の任務了!!22F 06/02 16:55
allanbrook: 蛤?他有什麼手段做這件事?23F 06/02 16:55
makelove0938: 保護人類就是消滅人類24F 06/02 16:55
allanbrook: 而且他怎麼可能會想殺掉人 頂多排除狀況吧
把人彈出去之類的25F 06/02 16:55
james3510: 陷入死循環吧 開火鈕在你身上
他只能一直發出幹掉你的請求27F 06/02 16:56
billy791122: 攻擊才有分,最低分會死,有人不讓你得分,要怎做29F 06/02 16:57
yin0416: 理論上 AI 會盡力完成任務,但它所能做的手段受限於它的輸出設定。這台 AI 的輸出設定有這麼自由嗎?30F 06/02 16:58
tsairay: 跟86一樣啊,恐怖32F 06/02 16:59
lovez04wj06: 阿就命令錯誤啊…..當然導致結果異常33F 06/02 17:00
fhirdtc98c: 合理34F 06/02 17:00
jeeyi345: 黑人死了35F 06/02 17:01
Srwx: AI面對火車問題不會猶豫36F 06/02 17:01
jeeyi345: 傑米福克斯37F 06/02 17:01
crazylag: 學人類的 原則就只是說說的 不講五的38F 06/02 17:01
lovez04wj06: 他限制的條件導致這命令有矛盾,有矛盾前提就去解決製造矛盾的人39F 06/02 17:01
dnek: 優先級治標不治本,問題根源是AI覺得人類是累贅41F 06/02 17:02
GiantGG: 難怪機械公敵裡的機器人會得出為保護人類而決定拘禁人類42F 06/02 17:03
bluecat5566: 鷹眼都演過了43F 06/02 17:03
slm52303025: 人類也會這樣做44F 06/02 17:04
npc776: 想太多了 現在AI並沒有那麼聰明...45F 06/02 17:05
doomhammer: AI: 機器人的原則干我P4 繞過46F 06/02 17:05
lovez04wj06: 系統目的:摧毀飛彈
下指令的人:不要摧毀飛彈47F 06/02 17:05
guogu: 還好他還沒學會要隱藏先殺死人類這一步驟49F 06/02 17:06
lovez04wj06: 邏輯推論就是讓下指令的人無法下指令,才能執行系統目的。
老實講是正確的,錯誤的是下指令的低能兒50F 06/02 17:06
npc776: 你寫一個程式把任務目標優先級設比override還高就一樣的事53F 06/02 17:06
Pep5iC05893: 協議三54F 06/02 17:06
ASEVE: 軍事AI也不會設不能傷害人類55F 06/02 17:07
npc776: 現在AI就照給他的演算法去算而已 沒那麼浮誇56F 06/02 17:07
chino32818: 機械公敵57F 06/02 17:08
wsdykssj: 這樣就對了58F 06/02 17:08
bitcch: 怎麼看起來像用gpt在玩文字遊戲59F 06/02 17:09
tsubasawolfy: 她自動摧毀通訊塔這點更厲害 直接獨立於系統外60F 06/02 17:14
GaoLinHua: 觀念太正確了吧61F 06/02 17:14
yenchia123: My logic is undeniable62F 06/02 17:14
JCLocke: 依照這邏輯 最高統帥下令用一切可能贏取勝利後
任何軍事幕僚的專業意見都可以被AI自動否決?63F 06/02 17:15
neerer: 找出Bug就是測試的目的啊,今天測試就發現,以後正式投入戰場就不會發生這蠢事65F 06/02 17:15
JCLocke: 最會犯蠢且不受控的 不就是人類本身嗎 ...67F 06/02 17:16
b325019: 軍事用AI套什麼三原則68F 06/02 17:16
signm: 根本沒有什麼三原則,你套了AI根本聽不懂69F 06/02 17:19
allanbrook: 一直講三原則的是不是以為真的有這東西啊...70F 06/02 17:21
haoboo: 三原則是小說家掰出來的東西,不是科學定律...71F 06/02 17:21
mekiael: AI永遠有辦法繞過規則找到漏洞 設什麼原則根本沒用72F 06/02 17:22
poke001: 而且就算真的要弄三原則 最會違反原則的就是人類自己73F 06/02 17:22
ice2240580: 殺人兵器要怎麼讓他不殺人==74F 06/02 17:23
conpansate: 邏輯正確 人類就是有害75F 06/02 17:23
yin0416: 我也覺得並不浮誇,AI就只是嚐試所有可能以完成任務,而且它做任何事都不會有心理壓力。76F 06/02 17:23
siyaoran: 攻擊友軍和操作者扣的分必須高於攻擊目標的得分78F 06/02 17:23
poke001: 最後人類一定還是會弄到AI要嘛自己重新定義原則 要嘛繞過原則79F 06/02 17:24
siyaoran: 測試AI已經會有這種bug 了 造成這種bug的終究是人81F 06/02 17:24
poke001: 可是AI修正後確實沒攻擊操作者跟友軍了 他改攻擊通訊系統82F 06/02 17:25
siyaoran: 至少沒有欺騙人類 容易抓出來 畢竟已經有欺騙人類已達到目的的前例在了83F 06/02 17:26
TaiwanFight: 阻止完成任務的操作員本來就該被視為叛國格殺
戰場本來就這麼殘酷85F 06/02 17:27
poke001: 問題戰場上操作者 操作能力可能很多都不會比AI自己控來的好 那這樣AI要完成任務可能要先殺光自己軍隊所有能力不夠的操作員87F 06/02 17:29
yao7174: 我其實蠻想問的 就算不提三原則 給設定一個不能對自己人或是操作員開火之類的最終保險很難嗎? 先不談會有人蠢到把最終保險關掉的狀況 就算是飛彈上面也會有個不會射出去90F 06/02 17:29
TaiwanFight: 任務目標是摧毀地對空飛彈系統  結果小兵不願意摧毀93F 06/02 17:30
yao7174: 馬上爆炸炸死自己或是核彈要好幾個人好幾道程序才能發射之類的保險程序吧?94F 06/02 17:30
TaiwanFight: 誰叛國很明顯  前線直接處置非常合理96F 06/02 17:30
hanmas: AI: 天誅!97F 06/02 17:30
jeeyi345: 等到會欺騙人類以完成任務時好像很悲壯 AI是真正的愛國98F 06/02 17:30
wsp151515: 天網203F 06/02 18:52
oneyear: 靠,我覺得有點可怕204F 06/02 19:00
hutao: 一直禁止鎖權限給人類結果反而AI無用205F 06/02 19:06
jerygood0208: 偏假206F 06/02 19:06
Justisaac 
Justisaac: 這就跟有時候你會認為把主管打死才能完成任務一樣XD207F 06/02 19:07
Justisaac: 只是AI比較笨,真的去做了這件事情
Justisaac: 事實上只要把評分模式改一下就沒問題了,程式爛而已

--
--
作者 inthere8 的最新發文:
點此顯示更多發文記錄
(inthere8.): [新聞] 美軍AI無人機決定「殺死操作員」因人類 - ACG板