顯示廣告
隱藏 ✕
※ 本文轉寄自 ptt.cc 更新時間: 2017-04-17 23:06:07
看板 Gossiping
作者 wyvernlee (廢死不可!)
標題 [新聞] 研究:AI不僅學習人類的外在言行,還學
時間 Mon Apr 17 22:16:45 2017


1.媒體來源:

ithome

2.完整新聞標題:

研究:AI不僅學習人類的外在言行,還學到了潛意識中的種族與性別歧視

3.完整新聞內文:

科學期刊《Science》上周出版了一篇由美國普林斯頓大學(Princeton University)
資訊技術政策中心與英國巴斯大學(University of Bath)計算機科學系的研究人員
所共同發表的報告,指出自人類語言中進行深入學習的人工智慧(AI)系統同樣也會
染上人類的種族與性別歧視

科學家們指出,Google的AI技術AlphaGo已經對外示範機器能夠在短時間內學習人類花
了好幾年才學會的技能,而且還可能超越人類,然而,有不少研究也顯示,從人們所
建立的語料庫中學習的AI,也會學到人類潛意識中的各種歧視,包括種族或性別歧視
等。


在人類的世界裡有一項測試稱為內隱聯結測驗(Implicit Association Test,IAT)
,它是在測試人們於潛意識中對於不同事物的感受或喜好,可能是花或樹木等物件,
或是種族、性別、年齡、體形、膚色及國家等,科學家們則替AI系統建立一個字辭嵌
入聯結測驗(Word-Embedding Association Test,WEAT),這是類似IAT的統計測試
,以判斷AI系統的傾向與態度。


此一AI系統先從涵蓋網路文字的龐大語料庫中學習人類的用字與回應,接著科學家們
再將該AI系統進行WEAT,不意外的,這個AI系統也學會了人們對各種事物的喜好或偏
見。例如當出現花與昆蟲時,花與開心的聯結就比昆蟲與開心的聯結來得強烈。


不過,比較令人擔心的是AI系統在種族、性別或年齡上的歧視,實驗顯示,當AI系統
看到歐裔美國人及非裔美國人的名字時,看到前者的開心程度高於後者。而在性別的
測試上,則顯示相較於男性,女性名字與家庭的聯結度更甚於職業,女性名字與藝術
的聯結也更甚於數學或科學。


IAT作者之一的社會心理學家Anthony  Greenwald也對該報告作出了評論,他認為此
一AI系統讓人們潛藏的態度與刻板印象浮上了檯面,除了展現機器的理解能力之外,
卻也顯示出機器有可能意外成為年齡、種族或性別歧視的工具


4.完整新聞連結 (或短網址):

http://www.ithome.com.tw/news/113462
研究:AI不僅學習人類的外在言行,還學到了潛意識中的種族與性別歧視 | iThome
[圖]
研究先讓AI系統從網路文字的龐大語料庫中學習人類的用字與回應,接著對AI進行測驗,發現AI也顯現出對不同種族、性別與職業的偏見。 ...

 

5.備註:

[AI] 有沒有人類不是公豬,就是母豬的八卦 ?

--
Israfil: 慘12/20 21:55
wyvernlee: 嗆五樓嗆夠了沒 ?                                     12/20 21:55
maple0425: 幫五樓QQ                                             12/20 21:55
meowchen: 樓下幫轉邊緣人板                                      12/20 21:55
Fanchiang: 早點死一死也好啊                                     12/20 21:55

--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 122.121.97.11
※ 文章代碼(AID): #1OzCvNe0 (Gossiping)
※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1492438615.A.A00.html
diabolica: 慘1F 04/17 22:17
leew633: 學壞了2F 04/17 22:17
sakaizawa: 人類末日到了3F 04/17 22:17
kingofturtle: 五樓4F 04/17 22:17
qwer1988: 連機器人也要嗆五樓死肥宅?5F 04/17 22:17

幫 QQ

leehanhan: 人+46F 04/17 22:17
MrQ2010: 都是一堆豬7F 04/17 22:18
johnny3: 沒有道德 什麼資料給它就學什麼8F 04/17 22:18
BILLYTHEKID: AI罵尼哥會怎樣9F 04/17 22:18
hogu134: 是時候種族清洗了 清洗目標是人類10F 04/17 22:18
wlsh5701: 那是因為給 AI train 的數據是人類產出的...11F 04/17 22:18
buke: 要嗆尼哥了12F 04/17 22:18
[圖]
 

我覺得這張更適合:

http://tothedeathmedia.com/wp-content/uploads/2015/07/skynet-google2-1.jpg
[圖]
 

akway: 末日要來了14F 04/17 22:18
iverson835: 慘了 人類要滅亡了15F 04/17 22:18
buke: 給他黑人Data就會唱Rap了16F 04/17 22:18
SuperUp: garbage in garbage out17F 04/17 22:19
bbdirty5566 
bbdirty5566: AI也進名人堂啦18F 04/17 22:19
bronco5229: 會學怎麼發廢文嗎19F 04/17 22:19
wasureta: 等哪天AI仇視人類 大家就知道了20F 04/17 22:19
gamania5972: 駭客任務要來了21F 04/17 22:19
airmike: 最後變成歧視全人類22F 04/17 22:20

那天很快就會到了,記得創世紀就是天網!!
※ 編輯: wyvernlee (122.121.97.11), 04/17/2017 22:20:53
afu4869: 好的不學 學壞的...23F 04/17 22:21
flux: 會發廢文再來24F 04/17 22:21
TomChu: 要歧視人類了 GG25F 04/17 22:21
afu4869: Training的過程還是給些篩選過的資料吧 免得學壞 :(26F 04/17 22:22
Nuey: 我記得不是之前有實驗過讓AI在Reddit上學習嗎??27F 04/17 22:22
MXZR: AI:我說在座的各位都是...28F 04/17 22:22
seemoon2000: 靠北喔 我看世界末日真的近了29F 04/17 22:22
lovelebron24: 奧創30F 04/17 22:23
newstyle: 如果機器人仇女怎麼辦31F 04/17 22:25
butten986: 天網討厭尼哥32F 04/17 22:29
bakaka 
bakaka: 我小時候有一個陌生女人在我手上劃一條線,那是什麼意思?33F 04/17 22:29
alog: 還不簡單 創造一個反歧視機器人就好了啊34F 04/17 22:29
alog: 如果他真的會思考 也會慢慢得出這種強勢的東西問題也很大
slimak: AI:妳是母豬36F 04/17 22:31
MXZR: 結果反騎士機器人把最愛搞騎士的人類給滅了37F 04/17 22:31
lucifiel1618: 篩選?你是怕它還不夠74是吧38F 04/17 22:31
chaoliu: 沒有模擬生物基本需求的AI 要怎麼變魔鬼終結者 無聊39F 04/17 22:36
chaoliu: AI會出問題 一定是你讓他模擬人類之類的 物質對AI又沒意
chaoliu: 新聞動不動擔心AI會變魔鬼終結者 真的很憨
murosaora: 萬能騎士42F 04/17 22:47
MrGiveUp: AI: 我最討厭種族歧視的人,還有黑人43F 04/17 22:48
sweety655633: 有主觀好惡才是人好麻44F 04/17 22:53
logus: 可是看著研究比較像是人類的用語會有這種導向 ai照著學就被45F 04/17 22:54
logus: 引導了
logus: 換言之ai能夠挑選字詞中喜歡與討厭的關聯性 然後卻因為這種
logus: 關聯性變成了種族歧視跟性別歧視
logus: 然後這種關聯性是來自人類語言
logus: 結果還是因為人會種族跟性別歧視啊 好像跟ai無關
gg889g8: 模擬人類的東西 人類會種族騎士 AI當然會51F 04/17 23:03

--
※ 看板: K_hot 文章推薦值: 0 目前人氣: 0 累積人氣: 34 
分享網址: 複製 已複製
r)回覆 e)編輯 d)刪除 M)收藏 ^x)轉錄 同主題: =)首篇 [)上篇 ])下篇