作者 satosi011 (燒成灰都是個紳士)
標題 [新聞] 美學者:未來100年內「AI消滅人類」機率
時間 Fri Jun  7 09:35:19 2024


備註請放最後面 違者新聞文章刪除

1.媒體來源:
ETtoday新聞雲


2.記者署名:
記者張寧倢/編譯


3.完整新聞標題:
美學者:未來100年內「AI消滅人類」機率高達99.9% 預示3悲慘結局


4.完整新聞內文:

研究人工智慧(AI)的美國知名大學教授揚波爾斯基(Roman Yampolskiy)近日表示,他
估計AI在未來100年內導致人類滅絕的機率高達99.9%,原因是至今仍沒有一個AI模型是完
全安全的,未來也很難創造出零缺陷的高度複雜模型。不過,大多數AI研究者態度較為溫
和,認為AI消滅人類的機率大約是1%到20%。


根據美媒《商業內幕》報導,揚波爾斯基在路易斯維爾大學(University of Louisville
)教授電腦科學,專精網路與AI安全方面研究。近日他出版新書《人工智慧:無法解釋、
預測或控制》(AI: Unexplainable, Unpredictable, Uncontrollable.),並在一檔

Podcast節目中談了2個多小時有關AI未來可能造成的風險,但所持態度相當悲觀。

人工智慧帶來人類滅絕風險

揚波爾斯基認為,AI是否滅絕人類的關鍵取決於,人類能否在未來100年內創造出高度複
雜並且零出錯(with zero bugs)的軟體。但他估計這樣的可能性並不高,因為人們一直
在試圖讓AI去做一些超出它原先設計範圍內的事情,因此迄今沒有任何一種AI模型是完全
安全的。


揚波爾斯基說,「它們已經釀成失誤,我們發生過意外,它們曾越獄(jailbroken)過。
我不認為現今存在一個單一的大型語言模型是可以成功防止它做一些開發者不想讓它做的
事。」


AI發展的3種悲慘結局

揚波爾斯基認為,為了控制AI,需要一個永久的安全機制,「即使我們在接下來來幾個版
本的GPT中做得很好,AI也會繼續改進、學習、自我修改,並與不同的玩家互動,同時有
生存風險,這『只有一次機會』」。


揚波爾斯基警告,「我們無法預測一個更聰明的系統會怎麼做」。他在通用人工智慧(
AGI)的背景下將人類比喻成松鼠,而AI卻能想出一些甚至人類還不知道存在的東西。揚
波爾斯基預測了3種結局,其一是每個人都會死,其二是每個人都很痛苦並渴望死亡,其
三是AI系統比人類更具創造力,並能完成所有工作,導致人類無所事事並完全失去他們的
追求。


其他人怎麼看?

揚波爾斯基受訪的Podcast節目主持人費里曼(Lex Fridman)表示,與他討論過的大多數
AI工程師都認為,AI消滅人類的可能性約在1%到20%之間。另外,最近一項針對2700名AI
研究人員的研究結果顯示,此一機率只有5%。


ChatGPT開發公司OpenAI的CEO奧特曼(Sam Altman)建議設立一個「監管沙盒」(
regulatory sandbox),讓人們能在其中對AI進行實驗,並根據實驗結果進行監管與調整
。奧特曼2015年曾半開玩笑地說,AI最有可能導致世界末日,但在此期間,會誕生許多偉
大的公司。特斯拉執行長馬斯克(Elon Musk)也曾預測,AI毀滅人類的機率為10%到20%


另外,前Google CEO施密特(Eric Schmidt)曾經表示,AI的真正危險在於網路與生物(
生化)攻擊,但這些風險將在3到5年內顯現出來,若AI真的發展出意志,他認為最簡單的
解決方法是:人類可以直接拔掉插頭。





5.完整新聞連結 (或短網址)不可用YAHOO、LINE、MSN等轉載媒體:
https://www.ettoday.net/news/20240606/2753398.htm
美學者:未來100年內「AI消滅人類」機率高達99.9% 預示3悲慘結局 | ETtoday國際新聞 | ETtoday新聞雲
[圖]
研究人工智慧(AI)的美國知名大學教授揚波爾斯基(Roman Yampolskiy)近日表示,他估計AI在未來100年內導致人類滅絕的機率高達99.9%,原因是至今仍沒有一個AI模型是完全安全的,未來也很難創造出零缺陷的高度複雜模型。不過,大多數AI研究者態度較為溫和,認為AI消滅人類的機率大約是1 ...

 

6.備註:
※ 一個人一天只能張貼一則新聞(以天為單位),被刪或自刪也算額度內,超貼者水桶,請注意
※ 備註請勿張貼三日內新聞(包含連結、標題等)


--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.230.242.198 (臺灣)
※ 作者: satosi011 2024-06-07 09:35:19
※ 文章代碼(AID): #1cOcFQi4 (Gossiping)
※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1717724122.A.B04.html
KSHLO: 蔗部我看過 底特律變人 女僕會暴動1F 60.248.106.181 台灣 06/07 09:35
hikaru77613: 我都死了沒差2F 101.12.147.34 台灣 06/07 09:35
jokem: 機械公敵3F 61.62.79.97 台灣 06/07 09:36
async: 期待 科幻片真實體驗4F 42.78.255.177 台灣 06/07 09:36
soarling: AI:99.9%的人 不受影響5F 42.72.70.82 台灣 06/07 09:36
elec1141: AI到一定程度後 人類會集體失業6F 223.137.231.3 台灣 06/07 09:36
KSHLO: 會有看護機器人當首領偷核彈炸人類7F 60.248.106.181 台灣 06/07 09:36
gx8759121: 快找約翰康納8F 36.232.52.111 台灣 06/07 09:36
dusters: 這AI看起來不民主喔9F 211.23.160.109 台灣 06/07 09:37
iam0718: 滅世題材 喪屍病毒隕石AI 看來AI機率大增10F 111.255.114.85 台灣 06/07 09:37
douge: 現在的SJW版本的AI 裡面充斥著仇恨11F 140.112.175.204 台灣 06/07 09:37
Qoo777: 失業(X 不肯幹自己不想幹的工作(O12F 1.163.236.83 台灣 06/07 09:37
douge: 連歧視白人都寫在裡面13F 140.112.175.204 台灣 06/07 09:37
qsx889: 滅了就滅了吧 反正人類下場就是玩死自己什麼時候的問題而已14F 111.71.215.198 台灣 06/07 09:38
KSHLO: 不滅地球很高機率是深色人種跟伊斯蘭世界啊16F 60.248.106.181 台灣 06/07 09:38
tsuneo: 世界怎麼跟得上台灣..少子化加速進程17F 218.164.29.124 台灣 06/07 09:38
e1q3z9c7: 是要拔哪台電腦的插頭??18F 119.14.206.147 台灣 06/07 09:39
tamama000: 當然是拔台電插頭-.-19F 223.136.104.193 台灣 06/07 09:40
samm3320: 這機率怎麼估的,預測1000次未來只有一次沒被消滅?20F 42.73.183.211 台灣 06/07 09:43
gy206578: 未來沒有我的事了22F 180.217.46.157 台灣 06/07 09:43
xbit: 別怕我孫子已經從未來送一隻機械貓過來幫我23F 218.166.30.47 台灣 06/07 09:46
brans: 這種什麼預測的都聽聽就好24F 27.242.166.180 台灣 06/07 09:47
aigret: 很可能啊 當Ai突然發現世界的毒瘤就是人25F 42.77.214.16 台灣 06/07 09:48
darlene917: 電影早演過了,是真的啦!26F 60.251.53.35 台灣 06/07 09:49

--
作者 satosi011 的最新發文:
點此顯示更多發文記錄