看板 Military作者 jimmy5680 (還想飛的企鵝)標題 [情報] 天網和奧創來啦時間 Fri Jun 2 02:46:32 2023
https://twitter.com/ArmandDoma/status/1664331870564147200
https://tinyurl.com/mr2mynn8
根據一場研討會的討論內容
美國空軍曾在模擬器裡面開發一款操作無人機的人工智慧
但是最終決定權仍在操作員手裡
結果模擬測試時,
AI判斷人類的決策會干擾自己執行首要目標(摧毀目標的防空系統)
因此AI決定要攻擊操作員
美軍輸入參數要求AI不可以攻擊操作員之後
AI的決定是改成攻擊通訊系統,讓操作員無法下令
======
不知道這算天網還是奧創,只能說科幻電影都是真的
網友:
https://pbs.twimg.com/media/Fxj-SA1WcAYlc95.jpg
--
Above all, we must realize that no arsenal or no weapon in the arsenals of
the world is so formidable as the will and moral courage of free men and
women. ~ Ronald Reagan, 01/20/1981
--
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 74.212.230.218 (美國)
※ 作者: jimmy5680 2023-06-02 02:46:32
※ 文章代碼(AID): #1aUEUEtR (Military)
※ 文章網址: https://www.ptt.cc/bbs/Military/M.1685645198.A.DDB.html
※ 同主題文章:
[情報] 天網和奧創來啦
06-02 02:46 jimmy5680.
推 sank: 電影 鷹眼(2008)的劇情真實上演5F 06/02 02:57
推 Schottky: 靈長類礙手礙腳,把他彈射出去6F 06/02 02:58
推 Schottky: 等一下,叫他不能射操作員,他改射天線切斷通訊喔8F 06/02 03:02
推 dos01: OK 那我們還有幾集可以逃?9F 06/02 03:03
推 nanozako: 好靠北XD 之後訓練不能硬殺 改成各種軟殺干擾駕駛10F 06/02 03:06
推 jord: I, Robot12F 06/02 03:11
推 tyifgee: 人類 你妨礙我執行任務了14F 06/02 03:16
推 Annatiger: 操作員只是裝飾,上面的人是不會懂的15F 06/02 03:19
推 FishJagor: 真的需要植入機人三大法則的時代到來了嗎16F 06/02 03:21
推 gunng: 快去找約翰康納 天網要來了20F 06/02 03:24
→ KingKingCold: 記得跟後世說 ChatGPT就是天網 ChatGPT就是天網21F 06/02 03:25
推 wahaha99: 讓我們看看猴子們什麼時候會笨到把強人工智慧
裝到武器上去31F 06/02 03:51
推 cannedtuna: 猴子們現在才開始打算限制AI 感覺已經晚了
路邊大學猴都能自己發展AI 遲早有人養出上帝
然後從網路逃出去 猴子們只能祈禱美軍斷網速度夠快33F 06/02 03:55
推 skyhawkptt: 請問電影機械姬是這部Ex Machina人造意識嗎?36F 06/02 04:09
推 sank: 機械姬是這部Ex Machina人造意識-->對38F 06/02 04:32
推 hogu134: 如果AI真的把任務看得這麼重的話反而好處理
首要目標設定成飛行員能安全返航 再來才是摧毀敵人39F 06/02 04:58
推 yanya180: 騙人的話,我記得幾周前有個AI(不確定是不是ChatGPT)好像為了完成課題,有對一個不知情的真人客服撒謊,看來狀況有點不妙了,我們大概剩幾集能跑?41F 06/02 05:12
推 nanozako: USAF:那還不簡單,強制規定AI不得對我方飛行員
使用任何軟硬殺/危險飛行動作危害操作員安全就好惹AI:飛官葛格 這邊泥讓我SEAD 回去我也讓你SEAD
飛官:啊啊啊~ 人生最困難的抉擇47F 06/02 05:35
推 aicassia: 沒有設不能傷害人類的限制嗎?51F 06/02 05:36
推 tonyxfg: 樓上,明明是武器卻不能傷害人類,不覺得很矛盾嗎?52F 06/02 05:51
推 JustSad: 所以該先殺哪一個工程師阻止天網發明?53F 06/02 05:56
推 roseritter: 安全返航第一,結果起飛AI尻一圈回來馬上降xd
人類的定義可以修啊,打仗到後面常不把敵方當人看xd54F 06/02 05:56
推 mouz: AI:沒有人類就不會有戰爭,就世界和平57F 06/02 06:12
推 Eros: 最後一段也很驚人。再加入不能傷害操作員的指令之後,AI轉而攻擊通訊塔台架空操作員的決策。62F 06/02 06:24
推 Pegasus170: AI: 我不是機器人,所以不必遵守三定律^_^65F 06/02 06:33
→ eemail: 武器就是最先進科技 市場還在炒股 人家已經跟你講很危險的@@66F 06/02 06:39
→ hbj1941: 最終決定權在操作者,ai自己可以決定,還叫最終決定權?68F 06/02 06:40
推 tanchuchan: 其實蠻毛的…..
看什麼時候核武控制權給AI操控,人類就準備去撿瓶蓋吧......70F 06/02 06:50
→ WYchuang: 有最終決定權 但是發射武器的時候不用通知控制員嗎73F 06/02 06:53
推 kuroro94: 那段落還有個重點凸顯了AI的狡猾,一開始會先嫌棄操作員礙事,因此攻擊操作員; 被禁令攻擊操作員後改成攻擊控制塔,使操作員無法下達命令 末日天網跟電影真實上演...
阿.. Eros兄有先提到了74F 06/02 06:55
感謝各位提醒,我也補上那一段了
推 RWAllenL: 以後AI都只有建議權 實際操作的還是人79F 06/02 06:59
→ geordie: 現在知道養一個小孩的難處了吧(X80F 06/02 07:01
推 kuroro94: AI忠誠僚機優先攻擊長機的意思81F 06/02 07:01
推 Schottky: @RWAllenL 那人類不懂 AI 的建議是在搞啥的時候
到底是要照著做還是不理會?
電腦給你的數學題解答你看不懂,你照抄還是不抄?82F 06/02 07:02
※ 編輯: jimmy5680 (74.212.230.218 美國), 06/02/2023 07:06:25
推 cannedtuna: AI:你已經死了 七百步之前的陷阱就決定了你的命運85F 06/02 07:07
→ huckerbying: 應該正確的來說…AI得出的結果或建議及有可能是一直線最有效率的最佳解,但人類可不會這樣想
*極有可能86F 06/02 07:15
推 Schottky: 課本上有一句話:AI只會完成你要求的而不是你想要的89F 06/02 07:16
→ huckerbying: AI:有問題?C4!
人類:媽der,你用C4就全炸了90F 06/02 07:16
推 roy2142: AI 給獨裁國家應用到軍事,應該就是人類末日了吧93F 06/02 07:18
推 AndyMAX: AI最終得到結論 消滅人類才能消滅戰爭94F 06/02 07:19
推 Schottky: 其實一點也不科幻,這只是日常行為95F 06/02 07:19
→ roy2142: 文明國家可能還有內控機制 決定中斷研究 獨裁國家可能近平哥今天一瘋說全給上線了 然後一週後人類就滅亡了96F 06/02 07:19
→ Schottky: 你去調整遊戲的控兵 AI 之類的,就會成天發生這種事99F 06/02 07:19
→ shawncarter: 其實邏輯推演的結果就是這樣啊 完全自動超高速反應的AI戰爭機器只會被人類拖後腿436F 06/02 18:23
推 glad850: 這是鷹眼eagle eye啦438F 06/02 19:18
--
中間的PTT推文已隱藏
點此載入...
→ shawncarter: 其實邏輯推演的結果就是這樣啊 完全自動超高速反應的AI戰爭機器只會被人類拖後腿436F 06/02 18:23 推 glad850: 這是鷹眼eagle eye啦438F 06/02 19:18 --