看板 Gossiping作者 wyvernlee (廢死不可!)標題 [新聞] 研究:AI不僅學習人類的外在言行,還學時間 Mon Apr 17 22:16:45 2017
1.媒體來源:
ithome
2.完整新聞標題:
研究:AI不僅學習人類的外在言行,還學到了潛意識中的種族與性別歧視
3.完整新聞內文:
科學期刊《Science》上周出版了一篇由美國普林斯頓大學(Princeton University)
資訊技術政策中心與英國巴斯大學(University of Bath)計算機科學系的研究人員
所共同發表的報告,指出自人類語言中進行深入學習的人工智慧(AI)系統同樣也會
染上人類的種族與性別歧視。
科學家們指出,Google的AI技術AlphaGo已經對外示範機器能夠在短時間內學習人類花
了好幾年才學會的技能,而且還可能超越人類,然而,有不少研究也顯示,從人們所
建立的語料庫中學習的AI,也會學到人類潛意識中的各種歧視,包括種族或性別歧視
等。
在人類的世界裡有一項測試稱為內隱聯結測驗(Implicit Association Test,IAT)
,它是在測試人們於潛意識中對於不同事物的感受或喜好,可能是花或樹木等物件,
或是種族、性別、年齡、體形、膚色及國家等,科學家們則替AI系統建立一個字辭嵌
入聯結測驗(Word-Embedding Association Test,WEAT),這是類似IAT的統計測試
,以判斷AI系統的傾向與態度。
此一AI系統先從涵蓋網路文字的龐大語料庫中學習人類的用字與回應,接著科學家們
再將該AI系統進行WEAT,不意外的,這個AI系統也學會了人們對各種事物的喜好或偏
見。例如當出現花與昆蟲時,花與開心的聯結就比昆蟲與開心的聯結來得強烈。
不過,比較令人擔心的是AI系統在種族、性別或年齡上的歧視,實驗顯示,當AI系統
看到歐裔美國人及非裔美國人的名字時,看到前者的開心程度高於後者。而在性別的
測試上,則顯示相較於男性,女性名字與家庭的聯結度更甚於職業,女性名字與藝術
的聯結也更甚於數學或科學。
IAT作者之一的社會心理學家Anthony Greenwald也對該報告作出了評論,他認為此
一AI系統讓人們潛藏的態度與刻板印象浮上了檯面,除了展現機器的理解能力之外,
卻也顯示出機器有可能意外成為年齡、種族或性別歧視的工具。
4.完整新聞連結 (或短網址):
http://www.ithome.com.tw/news/113462
5.備註:
[AI] 有沒有人類不是公豬,就是母豬的八卦 ?
--
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 122.121.97.11
※ 文章代碼(AID): #1OzCvNe0 (Gossiping)
※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1492438615.A.A00.html
幫 QQ
推 johnny3: 沒有道德 什麼資料給它就學什麼8F 04/17 22:18
推 hogu134: 是時候種族清洗了 清洗目標是人類10F 04/17 22:18
推 wlsh5701: 那是因為給 AI train 的數據是人類產出的...11F 04/17 22:18
推 buke: 要嗆尼哥了12F 04/17 22:18
我覺得這張更適合:
http://tothedeathmedia.com/wp-content/uploads/2015/07/skynet-google2-1.jpg
推 akway: 末日要來了14F 04/17 22:18
→ buke: 給他黑人Data就會唱Rap了16F 04/17 22:18
→ SuperUp: garbage in garbage out17F 04/17 22:19
推 wasureta: 等哪天AI仇視人類 大家就知道了20F 04/17 22:19
推 airmike: 最後變成歧視全人類22F 04/17 22:20
那天很快就會到了,記得創世紀就是天網!!
※ 編輯: wyvernlee (122.121.97.11), 04/17/2017 22:20:53
推 afu4869: 好的不學 學壞的...23F 04/17 22:21
推 flux: 會發廢文再來24F 04/17 22:21
推 TomChu: 要歧視人類了 GG25F 04/17 22:21
→ afu4869: Training的過程還是給些篩選過的資料吧 免得學壞 :(26F 04/17 22:22
→ Nuey: 我記得不是之前有實驗過讓AI在Reddit上學習嗎??27F 04/17 22:22
推 MXZR: AI:我說在座的各位都是...28F 04/17 22:22
→ bakaka …
推 bakaka: 我小時候有一個陌生女人在我手上劃一條線,那是什麼意思?33F 04/17 22:29
→ alog: 還不簡單 創造一個反歧視機器人就好了啊
如果他真的會思考 也會慢慢得出這種強勢的東西問題也很大34F 04/17 22:29
推 slimak: AI:妳是母豬36F 04/17 22:31
→ MXZR: 結果反騎士機器人把最愛搞騎士的人類給滅了37F 04/17 22:31
推 chaoliu: 沒有模擬生物基本需求的AI 要怎麼變魔鬼終結者 無聊
AI會出問題 一定是你讓他模擬人類之類的 物質對AI又沒意新聞動不動擔心AI會變魔鬼終結者 真的很憨39F 04/17 22:36
推 MrGiveUp: AI: 我最討厭種族歧視的人,還有黑人43F 04/17 22:48
推 logus: 可是看著研究比較像是人類的用語會有這種導向 ai照著學就被引導了
換言之ai能夠挑選字詞中喜歡與討厭的關聯性 然後卻因為這種關聯性變成了種族歧視跟性別歧視
然後這種關聯性是來自人類語言
結果還是因為人會種族跟性別歧視啊 好像跟ai無關45F 04/17 22:54
推 gg889g8: 模擬人類的東西 人類會種族騎士 AI當然會51F 04/17 23:03
--