顯示廣告
隱藏 ✕
※ 本文為 MindOcean 轉寄自 ptt.cc 更新時間: 2021-10-10 08:30:10
看板 Gossiping
作者 myIDis7 (個字)
標題 [新聞] AI藏有偏見?中正大學社科院教師團揭數位
時間 Sat Oct  9 12:21:21 2021


AI藏有偏見?中正大學社科院教師團揭數位科技危機

https://udn.com/news/story/6928/5799645
聯合/魯永明

當人類棋王敗給圍棋軟體,自動駕駛、人臉語音辨識越來越普及,人工智慧大爆發帶來無
限商機,卻讓人忽略背後不平等。台灣近年跟上全球數位浪潮,政府部門陸續引進AI扮輔
助角色,嘉義縣中正大學社會科學院6位教師主動出擊,從人工智慧「非意圖歧視」、工
作型態轉變等,提醒民眾數位科技衍生的社會正義危機。


台灣公部門AI應用還在起步,大多利用爬蟲工具做輿情分析。社科院6位教師,以「新自
由主義下的數位科技霸權與社會正義危機:一個跨領域視野」計畫,探討數位科技道德問
題,未來將做政府推動AI化借鏡參考,獲科技部「人文及社會科學研究卓越計畫」補助。

在國外有1秒就能產出200則速報AI記者,還有AI法官判定罪犯假釋出獄,更有AI審查醫療
服務申請資格等。然而,近年人工智慧危害社會正義討論甚囂塵上,各國紛紛提出譴責。

中正政治系教授李翠萍說,早在10年前,美國警方已使用大數據分析罪犯資料庫,事先察
覺潛在犯罪行為。但AI不是無所不能,「所有數據都隱藏傳統偏差,當人工智慧透過大數
據進行機器學習,很可能複製這樣的不平等。」


她舉例,傳統上,非裔人種以奴隸身分進到美洲大陸,長期造成有色人種相對窮困、邊緣
和被歧視,有案在身非裔美國人比白人多,所以資料庫原始數據早已存在種族不平等。她
還提到,亞馬遜也用AI篩選求職履歷,因傳統男性職場成就較高,更讓AI無意間產生性別
歧視。


「數位科技發展,都會出現一些和社會正義有關道德議題」,她說,中正團隊除將針對人
工智慧「非意圖歧視」形成不公義與不公平,也從數位科技滲入日常生活、取代人工等,
分析中高齡者轉業問題、新聞工作者與數位工具的關係、遠距工作者公平知覺和工作滿足
感等。


---

不是R

職場男性表現比較好

所以AI判斷有性別歧視?

明明就看表現

是解讀的人有性別歧視吧

見不得男性表現比較好

--
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.239.103.193 (臺灣)
※ 文章代碼(AID): #1XOHZ32E (Gossiping)
※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1633753283.A.08E.html
bamama56: 唉 四中之末 還社科院 根本來混經費1F 223.137.156.173 台灣 10/09 12:22
snow3804: 社科院?2F 36.225.224.148 台灣 10/09 12:22
AustinRivers: 那是寫程式的問題  什麼偏見3F 39.9.225.158 台灣 10/09 12:22
AustinRivers: 某公司不是有分出性別員工的差異
LouisLEE: AI識別案件,非裔人口犯人比較多—》所5F 39.8.230.157 台灣 10/09 12:24
LouisLEE: 以AI認為犯罪者多是非裔—〉AI有種族歧
shengyeh: 程式的歧視會比人嚴重嗎7F 114.137.150.1 台灣 10/09 12:25
LouisLEE: 視8F 39.8.230.157 台灣 10/09 12:25
Behind4: 覺青不知道 美國1919年才有參政權欸?9F 114.35.155.69 台灣 10/09 12:25
amethystboy: 文組不要亂森7710F 111.243.111.88 台灣 10/09 12:25
shadoM: 不是程式問題,是餵進去資料讓學習有偏見11F 114.27.165.76 台灣 10/09 12:25
yha: 不管是歧視還是偏見,面對現實吧,都是來自歸12F 223.137.41.214 台灣 10/09 12:25
amethystboy: 數學不會騙人13F 111.243.111.88 台灣 10/09 12:26
yha: 納法的智慧14F 223.137.41.214 台灣 10/09 12:26
leon1757tw: AI:你餵的資料就帶有人類的偏見 怪我15F 59.115.162.26 台灣 10/09 12:26
ad1339: 但修正AI比修正社會容易太多了16F 125.228.136.43 台灣 10/09 12:26
Behind4: AI歧視會更明顯 因為大數據的資料來源 本17F 114.35.155.69 台灣 10/09 12:26
Behind4: 身就是強勢族群比弱勢族群更多
yha: 路上看到一個全身刺青 叼著一根煙 走路晃來19F 223.137.41.214 台灣 10/09 12:27
yha: 晃去嘴角有檳榔汁的人,自動閃遠,算歧視嗎?
puretruthson: 嗨21F 123.194.140.205 台灣 10/09 12:28
kuan07: 不是AI有偏見 是資料中有偏見 AI目前只是22F 114.35.119.73 台灣 10/09 12:28
kuan07: 一些最佳化的模型 是建模的人要處理的
Behind4: 還可以開發餵食AI去影響AI探勘得到的數據24F 114.35.155.69 台灣 10/09 12:29
h311013: 就是你的分析方式跟範圍太侷限阿 GPU ram25F 111.242.26.13 台灣 10/09 12:30
h311013: 不夠大 能塞的樣本太少
OforU: 社科院27F 114.36.90.145 台灣 10/09 12:31
ad1339: 人為介入過甚,不基於事實,就失去AI意義28F 125.228.136.43 台灣 10/09 12:32
Behind4: google 就是最大樣本庫的範例呀 現在Goog29F 114.35.155.69 台灣 10/09 12:33
Behind4: le 不就很容易挖到農場文?
chinagay: 文組覺青又來亂 世界亂源啊31F 220.141.34.169 台灣 10/09 12:35
kps1247: 文組談AI要先搞懂再來講好不好32F 118.165.74.25 台灣 10/09 12:39
quanhwe: 非裔犯罪率本來就較高 可以參考fbi的報告33F 114.137.132.150 台灣 10/09 12:40
Alphaz: ai當然越來越像人34F 111.71.66.36 台灣 10/09 12:40
AgentSkye56: 笑死 show統計結果而已也能崩潰35F 101.10.17.123 台灣 10/09 12:41
HeartBreaker: 這不是書的內容嗎…36F 42.77.195.192 台灣 10/09 12:42
chigo520: 數據統計出來也較歧視歐37F 220.133.8.69 台灣 10/09 12:42
kamisanma: 社科院?文組?38F 1.170.247.235 台灣 10/09 12:43
Behind4: 用族裔的犯罪率來判斷一個人 就是歧視呀39F 114.35.155.69 台灣 10/09 12:45
Behind4: 有些人歧視的很理所當然 完全沒有懷疑 XD
Behind4: D
JC910: 文組42F 180.217.233.127 台灣 10/09 12:47
pipiayin: 人類社會的歧視 在AI身上被放大了吧43F 114.136.101.225 台灣 10/09 12:47
jackie0804: 因為訓練的資料就有偏見當然結果有問44F 223.140.1.252 台灣 10/09 12:48
alamabarry: 整天不知道在供三小45F 61.61.77.190 台灣 10/09 12:48
jackie0804: 題46F 223.140.1.252 台灣 10/09 12:48
alamabarry: 文組搞ai?????47F 61.61.77.190 台灣 10/09 12:49
simonlowtall: 數據處理而已根本不是真正AI48F 101.10.93.239 台灣 10/09 12:52
zzff92: 垃圾理組還是認為AI可以取代法官49F 118.232.16.214 台灣 10/09 12:54
cocogg: 餵的資料有偏見怪程式XDDD50F 223.137.22.139 台灣 10/09 12:56
quanhwe: 有偏見的人在怪ai有偏見51F 114.137.132.150 台灣 10/09 12:57
Behind4: 笑死....  人的定義 是文組定的欸 XDDDDD52F 114.35.155.69 台灣 10/09 12:58
Behind4:
yyc1217: 是資料有偏見54F 122.99.59.52 台灣 10/09 12:58
Behind4: 本文要討論的是人的偏見 被AI放大這件事55F 114.35.155.69 台灣 10/09 12:59
Behind4: 哪一個人自認沒偏見的?
ruinfish: 就來蹭經費的啊57F 27.52.200.61 台灣 10/09 12:59
Behind4: 哪一個沒偏見的人 弄出沒偏件的資料去餵58F 114.35.155.69 台灣 10/09 13:00
tek5615: 笑死,你人工判斷標準更容易歧視吧59F 223.137.6.191 台灣 10/09 13:04
Behind4: 對文組偏見這麼深 還是不要亂餵比較好60F 114.35.155.69 台灣 10/09 13:04
Behind4: 那請問 AI判斷 用哪一個人的思想為基準?
Behind4: 最後還不是人?
william10319: 教授看到結果還不懂得溯源立論 悲哀63F 111.71.213.148 台灣 10/09 13:07
william10319:  文組不意外
KJC1004: garbage in garbage out65F 125.228.53.36 台灣 10/09 13:08
nowitzki0207: 資料就是顯示事實,啥小偏見66F 61.231.37.240 台灣 10/09 13:08
KJC1004: 拿帶有歧視的資料訓練這不是廢話嗎?67F 125.228.53.36 台灣 10/09 13:08
KJC1004: 事實就是這個社會帶有歧視 就接受它不就
KJC1004: 好了?難道妄想能改變?
YcL5566: 社科院一堆亂源70F 1.200.56.101 台灣 10/09 13:09
foxey: 文組談程式?71F 59.124.242.209 台灣 10/09 13:10
jimhall: 老梗72F 223.139.33.8 台灣 10/09 13:11
monkeyday: 文組73F 1.200.132.158 台灣 10/09 13:12
LunaDance: 很多政治不正確的關聯都被說成是偏見74F 153.154.98.103 日本 10/09 13:17
LunaDance:  但確實是有因果關係 政治綁架科學的
LunaDance: 話 研究是做不下去的
tim9527: 文組沒補助眼紅嗎77F 111.246.92.120 台灣 10/09 13:22
ce270651: 相關非因果78F 218.161.5.14 台灣 10/09 13:28
tom282f3: Garbage in garbage out79F 223.136.185.34 台灣 10/09 13:28
dlshao: 白癡喔要看你train的data長甚麼樣阿80F 223.138.17.62 台灣 10/09 13:30
Qaaaa: ai會有偏見就是給他吃的數據本身就是灌出來81F 213.237.83.70 丹麥 10/09 13:32
Qaaaa: 的啊 其實也算群體霸凌而已 正因為ai不帶偏
Qaaaa: 見 很純粹反應人的社會數據
gueswmi: 哪天AI出來靠北 硬體條件差異 告你歧視84F 122.118.238.12 台灣 10/09 13:38
vking223: 女拳恐怖份子又有出征對象了85F 61.223.136.58 台灣 10/09 13:39
az25256058: 資工系沒說話 就你社科院他媽在講幹86F 39.13.99.63 台灣 10/09 13:43
az25256058: 話
sirlers: 有點好笑 不管train的資料有沒有偏見 套88F 27.246.39.145 台灣 10/09 14:03
sirlers: 用篩選的時候不要給那些項目就好了啊
jru: 資料只會告訴你群體來看有相關性90F 118.169.157.59 台灣 10/09 14:07
jru: 有些人擅自套到每個個體上 才造成偏見
ap954212: 就只是DataSet的統計事實而已92F 223.141.180.11 台灣 10/09 14:12
cplalexandta: 這個東西美國都做幾十年了 現在才講93F 73.208.233.207 美國 10/09 14:18
cplalexandta: 搞得好像是什麼新聞一樣 學術水平真
cplalexandta: 的笑掉大牙
WWIII: 黑人 等於猩猩96F 111.241.102.243 台灣 10/09 15:08
askaleroux: 到底什麼時候輪到文組在那邊唧唧歪歪97F 223.141.36.31 台灣 10/09 16:50
askaleroux: 的
askaleroux: 一堆低端先搞懂線性代數再來哭么
ryankkk: 又是垃圾文組100F 101.10.8.141 台灣 10/09 21:30

--
※ 看板: Gossiping 文章推薦值: 0 目前人氣: 0 累積人氣: 311 
作者 myIDis7 的最新發文:
點此顯示更多發文記錄
分享網址: 複製 已複製
r)回覆 e)編輯 d)刪除 M)收藏 ^x)轉錄 同主題: =)首篇 [)上篇 ])下篇