顯示廣告
隱藏 ✕
※ 本文轉寄自 ptt.cc 更新時間: 2023-06-03 09:50:51
看板 Military
作者 zanyking (最後的六年級生)
標題 Re: [情報] 天網和奧創來啦
時間 Fri Jun  2 11:47:49 2023


※ 引述《jimmy5680 (還想飛的企鵝)》之銘言:
: https://twitter.com/ArmandDoma/status/1664331870564147200
: https://tinyurl.com/mr2mynn8
: 根據一場研討會的討論內容
: 美國空軍曾在模擬器裡面開發一款操作無人機的人工智慧
: 但是最終決定權仍在操作員手裡
: 結果模擬測試時,
: AI判斷人類的決策會干擾自己執行首要目標(摧毀目標的防空系統)
: 因此AI決定要攻擊操作員
: 美軍輸入參數要求AI不可以攻擊操作員之後
: AI的決定是改成攻擊通訊系統,讓操作員無法下令
: ======
: 不知道這算天網還是奧創,只能說科幻電影都是真的
: 網友:https://pbs.twimg.com/media/Fxj-SA1WcAYlc95.jpg


現在的AI都是用類神經網路、多代理人策略、搭配世代演化來生成的
而在模擬演化過程裡,我們怎麼設定並篩選『哪一隻AI應該活到下一個iteration』呢?

如果是特定戰鬥平台的戰術用AI,可以想像評判標準就是建立在殺敵經濟效率上的,

『如何善用每一個作戰單位的經濟價值達到最高交換比』會是最合理的判斷標準

但這個判斷標準本身就必然導致訓練出來的AI一但放出場就容易像瘋狗一樣的亂咬人

因為單位時間、單位戰鬥單位的經濟量面前,什麼都不做創造出最少的價值,而AI卻是
被訓練成追求最大的價值:也就是消滅敵方的,即使打錯對象殺錯人會有負分,但扣分
能扣多少呢?人的決策速度與AI的決策速度是可以有10的7次方以上的差距的,等待人
類的決策對AI來說幾乎是永恆


所以只能在AI演化迭代出來以後,才在各種情境模擬中縫縫補補,設定各種額外添加的
邊界條件,在執行過程的critical path 上AI沒辦法碰到的各種步驟中,就像是給狗戴
上電擊項圈那樣的約制它


另一個造成AI往瘋狗演化的因素是:

每個演化世代的篩選幾乎無法靠人工,因為世代可能得迭代上萬代,而每代的代理人
數量可能也是好幾萬,用人工去篩選這個工作量與時間是天文數字,只能寫程式去篩選

但這就要求工程師與科學家必須要可以用程式碼描述一個戰爭世界,裡面能向AI呈現
『什麼是戰略?』
『什麼是政治?』
『為什麼摧毀錯誤目標會造成戰略上的失敗與政治災難?』
『為何在局部戰術執行的最佳化上,需要人類決策的干預來實現戰略價值最大化?』

我不敢說不可能,但起碼目前人類辦不到

破壞力越強、戰術執行造成的戰略與政治影響力越大的戰鬥平台就越難丟給AI

這不是什麼天網啦、什麼人類末日啦

這只是我們單純的在電腦上用養蠱的方式打造AI,卻又蠢到期待它不要太毒太殘暴

以及證明了不論AI還是人類,單純追求KPI(key performance indicator)、局部最
佳化會如何引發災難而已



--

在灣區打工的中年外籍碼農,有誰想在台灣組研發團隊做美國市場的,歡迎聊聊

--
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 99.110.49.165 (美國)
※ 作者: zanyking 2023-06-02 11:47:49
※ 文章代碼(AID): #1aUMPmHH (Military)
※ 文章網址: https://www.ptt.cc/bbs/Military/M.1685677680.A.451.html
※ 編輯: zanyking (99.110.49.165 美國), 06/02/2023 11:50:22
ABQ66       : 覺得中國才是最有可能搞出天網的國度1F 06/02 11:52
catlazy42120: 簡單來說就是病醫好了但人死掉那樣,我們是不是在創2F 06/02 11:52
catlazy42120: 造一個即將控制不了的東西?
te170       : 人工智能研發新病毒,不爽美國傳送給中國(做夢夢4F 06/02 11:53
te170       : 到的)
PePePeace   : 也不能保證迭代之後設定平台不會被AI突破6F 06/02 11:55
coke5130    : 去打星海二電腦殘酷等級就可以體會到高效率零失誤7F 06/02 11:55
coke5130    : 有多難擊敗
applejone   : 所以AI為了達到目的是會做出傷敵100自損99.9的事情9F 06/02 11:56
applejone   : 最後的結果為勝利即可
jack19931993: 每隻追獵都控到剩一滴血往後跳 你根本打不完11F 06/02 11:59
suntex01    : 對你的簽名檔有興趣12F 06/02 12:01
AfterDark   : 星海那個超變態的 而且那個基本上已經是作弊了 不13F 06/02 12:12
AfterDark   : 偵察也知道你在出什麼兵
NexusPrime  : AI model 根據model的推論與機率函數判斷最終是否15F 06/02 12:15
NexusPrime  : 可行,因此可能會有不計代價的行為(OpenAI有用人工
NexusPrime  : 矯正gpt許多可能造成傷害的內容)
money501st  : 單純追求KPI真的是災難18F 06/02 12:17
money501st  : 就跟單純追求成績什麼都不管一樣
verdandy    : 新聞界就是追求KPI,所以現在標題都農場化了20F 06/02 12:19
CharleneTsai: AI可能是局部最佳化、協助決策的工具 但在戰略價值21F 06/02 12:28
CharleneTsai: 最大化上面 還是需要人類干預 如果由AI決定 原子彈
CharleneTsai: 應該會直接丟東京或是核平日本
classskipper: 追求KPI,想到某高腰24F 06/02 12:30
pponywong   : 追求效率最大化 應該是一開戰就直接核平對方首都了25F 06/02 12:33
hedgehogs   : 用歷史戰役設條件,結果不同判定失敗26F 06/02 12:38
hedgehogs   : AI這麼聰明應該很快就知道分野了
dz01h       : 其實就是篩選的評分基準沒設計到條件而已28F 06/02 12:52
b389b1c     : 一開始就限用核彈,不然不用推演了29F 06/02 12:55
ecwecwtw    : 這個技術讓沒有底線的國家取得,絕對會搞砸生靈塗30F 06/02 13:05
ecwecwtw    : 炭
sandyfanss  : 用歷史戰役不會得到「敵人在本能寺」的結論嗎?32F 06/02 13:09
Tahuiyuan   : 感覺AI最後會發現,阻止戰爭的方法就是核平每一個36F 06/02 13:15
Tahuiyuan   : 侵略國,由於不同國家的AI有不同立場,最後就是被
Tahuiyuan   : AI強制送往核戰末日www
TWNOTCHINA  : AI會反擊人類的前提  首先AI意識到生死 然後產生求39F 06/02 13:19
TWNOTCHINA  : 生意志
kuramoto    : 中國的話,小學生現在連人都不信任了,怎麼會去信41F 06/02 13:35
kuramoto    : 個他都不了解運作原理的東西,然後安心的把大部分軍
kuramoto    : 權交給它?不過好萊塢大概可以拍中國因為把軍事指
kuramoto    : 揮權交給AI的電影,結果中國AI先暴走處理國內軍事
kuramoto    : 高層,因為AI認定戰時他們的態度有可能導致戰事沒
kuramoto    : 辦法延續太久,最後只好請美國協助,由美國的軍力以
kuramoto    : 及美國自身開發的戰術AI成功救出總書記跟平定暴走AI
kuramoto    : ,故事結局受總統頒獎後的主角才發現美國自家的AI
kuramoto    : 其實才是幕後遠端操控暴走AI的主事者,因為戰術AI認
kuramoto    : 定美國總統不敢沒事對敵國發動攻勢,於是自己就製造
kuramoto    : 契機
robertchun  : 推52F 06/02 13:36
ewayne      : 意識到生死就不會有核戰,恐怖平衡就是這樣來的53F 06/02 13:36
ewayne      : 只有不顧後果才會有核戰,而AI的發展過程,就是沒有
ewayne      : 在管後果的,所以AI當然追求效益最大化,後果跟影響
ewayne      : 又不是AI去收拾
ewayne      : 會需要人類干預,講白了就是要人類負責,不然要找AI
ewayne      : 負責嗎?AI要怎麼負責?
foxey       : KPI就什麼都不懂的管理職不須學習用來控制下屬的工59F 06/02 13:55
foxey       : 具 太過於以管窺豹 這的確也是AI的問題
bilibala    : 人工篩選太難了,用 AI 篩顯就好。(誤61F 06/02 14:16
ABQ66       : 霍金也跟中國說過別搞天眼 照樣弄62F 06/02 14:30
ABQ66       : 天網當然也敢
fragmentwing: 現在不都是AI定的AI的KPI嗎? 讓AI自己找規則64F 06/02 14:43
thaleschou  : 跟人體免疫系統訓練類似啊65F 06/02 16:00
thaleschou  : 1.不准殺自己人 2.可以辨識敵人
applewarm   : 說得很好啊67F 06/02 17:44
linzero     : 當他認定人類操作員是負分項目時,就會想辦法排除,68F 06/02 18:52
linzero     : 沒任何限制時會直接殺掉,有限制時會在限制的條件下
linzero     : 想辦法排除這個人,加再多限制可能也是在找尋合乎限
linzero     : 制的排除方式而已,除非排除的代價大到超過該人員本
linzero     : 身的負分
cannedtuna  : 問題就在人類還有資格定KPI到什麼時候73F 06/02 20:21
andey       : kuramoto..也許會像蘇聯的死亡之手系統...74F 06/03 00:09
andey       : 訓練一個模仿小學生人格的AI當死後替身做決策..
※ 編輯: zanyking (99.110.49.165 美國), 06/03/2023 00:39:02
--
※ 看板: Military 文章推薦值: 0 目前人氣: 0 累積人氣: 108 
作者 zanyking 的最新發文:
  • +35 Re: [請益] 雲端技術是Java工程師的必備技能嗎 - Soft_Job 板
    作者: 123.194.157.176 (台灣) 2023-09-14 22:15:10
    好啦,剛剛那篇回人家新手的講完了,下面就來講點比較黑暗的 過去三十年以來,這是一個科技、市場、專業知識的發展速度以每五年為單位去看,會 有著十的次方倍進展的世界,我們會不斷地觀察到:不論軟體還是硬體 …
    104F 35推
  • +45 Re: [請益] 雲端技術是Java工程師的必備技能嗎 - Soft_Job 板
    作者: 42.79.158.69 (台灣) 2023-09-14 17:07:31
    ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^這麼想的原因是什麼? 不是說專注於Java技能培養來選工作會有什麼問題,而是你的動機與原因如果跟現實 有偏差,即使別人選Java走得很順、 …
    59F 45推
  • +26 Re: [情報] 天網和奧創來啦 - Military 板
    作者: 99.110.49.165 (美國) 2023-06-02 11:47:49
    現在的AI都是用類神經網路、多代理人策略、搭配世代演化來生成的 而在模擬演化過程裡,我們怎麼設定並篩選『哪一隻AI應該活到下一個iteration』呢? 如果是特定戰鬥平台的戰術用AI,可以想像評判 …
    75F 26推
  • +55 Re: [請益] 工作四年多開始迷惘 - Soft_Job 板
    作者: 73.202.151.144 (美國) 2018-04-17 17:03:23
    從以下舉的例子來看,那當然,clean code、design pattern還是什麼鬼的全都是垃圾, 通通都是沒有用的 這是第一次 這是第二次 而這叫發光發熱 怎麼讓你刮目相看?老實講,我對你沒有興 …
    161F 55推
  • +10 Re: [心得] 敏捷課程觀察心得 - Soft_Job 板
    作者: 73.202.151.144 (美國) 2018-04-02 06:46:16
    我也做十多年了,認識我的應該從沒聽過我講敏捷 不是我討厭它,而是這種東西跟『愛』一樣,對它的追求應該要討論實質 細節與執行,而不是滿嘴唉來唉去。 我知道的敏捷建立在一個基本假設上: 『需求未知,我們需 …
    13F 10推
點此顯示更多發文記錄
分享網址: 複製 已複製
r)回覆 e)編輯 d)刪除 M)收藏 ^x)轉錄 同主題: =)首篇 [)上篇 ])下篇