顯示廣告
隱藏 ✕
※ 本文為 MindOcean 轉寄自 ptt.cc 更新時間: 2022-06-11 09:24:17
看板 Gossiping
作者 ccugoo (小麥)
標題 [新聞] AI藏種族歧視因子 清大跨國團隊揭醫學倫
時間 Fri Jun 10 22:26:12 2022


備註請放最後面 違者新聞文章刪除

1.媒體來源:
※ 例如蘋果日報、自由時報(請參考版規下方的核准媒體名單)
※ Yahoo、MSN、LINE等非直接官方新聞連結不被允許
中央社

2.記者署名:
※ 若新聞沒有記者名字或編輯名字,請勿張貼,否則會被水桶14天
※ 外電至少要有來源或編輯 如:法新社
郭宣彣

3.完整新聞標題:
※ 標題沒有完整寫出來 ---> 依照板規刪除文章
AI藏種族歧視因子 清大跨國團隊揭醫學倫理隱憂

4.完整新聞內文:
※ 社論特稿都不能貼!違者刪除(政治類水桶3個月),貼廣告也會被刪除喔!可詳看版規
https://imgur.com/HMAndDX
[圖]
清大資工系助理教授郭柏志(左)與麻省理工學院、哈佛大學、史丹佛大學、多倫多大學
等學校跨國合作,分析超過20萬名病患的胸部、頸椎、手部X光及胸部電腦斷層掃描,發
現人工智慧有「歧視」問題,相關研究成果登上國際頂尖期刊「刺胳針數位健康」(

Lancet Digital Health)。(清華大學提供)中央社記者郭宣彣傳真 111年6月9日

清大資工系助理教授郭柏志與麻省理工學院等校研究發現,採AI深度學習演算法判讀X光
片及電腦斷層掃描時,會分辨人種,進而影響醫療判斷準確率,被視為人工智慧的種族歧
視。


清華大學今天發布新聞稿指出,郭柏志與麻省理工學院、哈佛大學、史丹佛大學、多倫多
大學等校跨國合作,分析超過20萬名病患的胸部、頸椎、手部X光及胸部電腦斷層掃描,
發現人工智慧有「歧視」的問題。此研究成果日前登上國際頂尖期刊「刺胳針數位健康」
(The Lancet Digital Health),吸引外媒報導。


郭柏志指出,透過AI人工智慧協助診療發現,白人的醫學影像有問題卻沒被檢查出來的誤
判率是17%,黑人的誤判率卻達28%。醫學影像的誤判,會影響急診、醫療給付等資源分配


郭柏志說,醫界近年大量引進人工智慧,透過智慧診療及醫學影像識別技術等有助於醫生
更準確診斷,原是造福病患的好事,但這項研究揭露隱憂,提醒應注意醫療倫理,避免人
工智慧產生的醫療不平等現象。


郭柏志表示,未來要如何去除歧視,讓各族群醫學影像判讀都有一致的準確率,為下一階
段努力的目標。

5.完整新聞連結 (或短網址)需放媒體原始連結,不可用轉載媒體連結:
※ 當新聞連結過長時,需提供短網址方便網友點擊
https://www.cna.com.tw/news/ahel/202206090331.aspx
AI藏種族歧視因子 清大跨國團隊揭醫學倫理隱憂 | 科技 | 中央社 CNA
[圖]
清大資工系助理教授郭柏志與麻省理工學院等校研究發現,採AI深度學習演算法判讀X光片及電腦斷層掃描時,會分辨人種,進而影響醫療判斷準確率,被視為人工智慧的種族歧視。 ...

 

6.備註:
※ 一個人一天只能張貼一則新聞(以天為單位),被刪或自刪也算額度內,超貼者水桶,請注意
※ 備註請勿張貼三日內新聞(包含連結、標題等)


--
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 140.112.48.145 (臺灣)
※ 文章代碼(AID): #1YerI7NN (Gossiping)
※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1654871175.A.5D7.html
diabolica: XDDDDDDDDDDDDDDDDDDDD1F 49.158.78.174 台灣 06/10 22:26
ppptttqaz: 黑人的誤判率卻達28%2F 223.138.98.215 台灣 06/10 22:26
heyd: 人工智慧也會種族歧視?3F 223.138.212.225 台灣 06/10 22:26
kaodio: 幻想AI能讓世界和平的可以醒醒了4F 114.44.29.28 台灣 06/10 22:26
kaodio: ai就是人類意志的延申
GenesisXD: 那麼黑怎麼讀 靠北喔 不要為難機器6F 49.216.41.176 台灣 06/10 22:27
LoveMoon: 黑人==猩猩  AI說的不是我7F 123.240.217.177 台灣 06/10 22:27
thelittleone: 怎麼訓練到AI會出現歧視啊?8F 118.167.193.213 台灣 06/10 22:27
heyd: 不過應該是體質也有種族差異ㄅ9F 223.138.212.225 台灣 06/10 22:27
JudgmentLin: 網路充滿歧視 AI學會精髓10F 39.11.134.29 台灣 06/10 22:27
qpb852qpb742: AI真的屌,學到人類最精華的部分,11F 42.73.170.151 台灣 06/10 22:28
qpb852qpb742: 而非表面上的假掰政治正確
AirWinters: 尼哥不意外13F 106.1.226.63 台灣 06/10 22:28
soulivee: 白癡,那麼歧視就是真理14F 36.230.107.247 台灣 06/10 22:28
MrBing: 阿就很黑很難分辨陰影啊 你們人類真的毛15F 64.129.1.44 美國 06/10 22:29
MrBing: 很多
atoom: 感覺只是不準而已17F 223.136.97.82 台灣 06/10 22:29
chung74511: 可能黑人身體結構某些地方和白人不同?18F 114.27.198.114 台灣 06/10 22:29
degas: 人發明就有歧視19F 111.250.194.184 台灣 06/10 22:30
robrob99: 很明顯 這是你訓練資料中 黑人病例太少20F 123.194.136.130 台灣 06/10 22:31
joumay: ....丟給阿狗再訓練個幾兆次會怎樣??21F 36.224.152.15 台灣 06/10 22:32
elzohar: 阿不就數據不足22F 112.78.68.252 台灣 06/10 22:32
samm3320: 這AI是看斷層掃描訓練跟網路有什麼關係23F 36.227.191.231 台灣 06/10 22:33
Mei5566: 喂的資料修正一下啊,嘻嘻24F 125.231.117.157 台灣 06/10 22:33
sprina5: 這也太歧視了25F 1.161.3.47 台灣 06/10 22:33
sted0101: AI:甲甲容易中ADSL   SJW:這是7426F 111.250.48.76 台灣 06/10 22:34
pk: 黃種人AI連看都不看27F 111.241.185.249 台灣 06/10 22:39
dayend: 把人類科技瓶頸怪給AI歧視 我也是笑了XD28F 111.246.215.32 台灣 06/10 22:39
dayend: 科學研究者們的高級迷信和自大 沒話說
hydralee: 就黑人誤診多,AI也是被training data帶30F 1.163.83.49 台灣 06/10 22:41
dayend: 就算AI診不出來 也比人類醫生準確率高啊31F 111.246.215.32 台灣 06/10 22:41
viable: 難道是因為黑人的許多身體組織對於x光這32F 101.137.151.50 台灣 06/10 22:42
viable: 個波段的吸收率有比較高嗎?
viable: 難道說會有人特地寫一個ai先分辨黑人,然
viable: 後就在數據裡頭增加亂數影響正確率嗎?那
viable: 是怎麼先分辨黑人的?
GenesisXD: 機器一定先掃黑啊37F 49.216.41.176 台灣 06/10 22:44
iPadProPlus: 厲害38F 101.12.18.111 台灣 06/10 22:45
yeltek: 黑人沒錢看醫生沒data當然不準39F 114.43.73.197 台灣 06/10 22:45
yyc1217: 資料的問題40F 114.34.36.252 台灣 06/10 22:46
yanis: 是 raw data 有問題還是?41F 114.34.98.173 台灣 06/10 22:46
robrob99: 不是AI歧視 是AI判讀造成資源分配歧視42F 123.194.136.130 台灣 06/10 22:48
ray930151: 誤判而言 怎麼叫歧視?43F 219.70.199.110 台灣 06/10 22:48
molsmopuim: https://youtube.com/shorts/nH-B1PKwlaw?feature=share44F 180.217.147.25 台灣 06/10 22:49
molsmopuim:

 
yl3218: 是喂的資料有問題嗎 x光片和膚色沒關係啊46F 1.170.36.85 台灣 06/10 22:49
molsmopuim: https://youtu.be/nH-B1PKwlaw47F 180.217.147.25 台灣 06/10 22:49
scemoorso: 結果黃猴子連數據都沒有(x48F 101.10.14.164 台灣 06/10 22:51
kamisanma: 怪AI囉?49F 114.26.187.62 台灣 06/10 22:54
after1: 阿不就資料集是白人病例多而已,講這麼聳50F 220.137.131.194 台灣 06/10 23:22
after1: 動幹嘛
harryjimmyw: 可能黑人iso拉太高噪點影響判讀52F 223.137.241.128 台灣 06/10 23:23
sunnyyoung: 是看不清楚吧 大猩猩也無法分辨歐尼53F 101.12.45.170 台灣 06/10 23:24
sunnyyoung: 爾跟牠們的差別
DALLEN: 可提告?55F 1.200.186.250 台灣 06/10 23:30
abasqoo: 哇靠 AI不知道主流是黑人跟LGBT嗎56F 27.53.48.48 台灣 06/10 23:32
thepstar: 根本亂寫 這不叫歧視57F 98.229.57.77 美國 06/10 23:43
kt40: 什麼東西都扯到歧視 在那叫什麼58F 39.8.5.74 台灣 06/10 23:49
coolrock: 這真的有智慧了59F 114.136.134.55 台灣 06/11 00:12
Water0823: 怎麼感覺像是黑人比較難判定啊60F 114.137.129.64 台灣 06/11 00:21
blackstyles: 因為資料集就幾乎都是白人的不是ai歧61F 36.229.134.138 台灣 06/11 00:48
blackstyles: 視 是資料本身就帶偏見了好嗎
lavign: garbage in garbage out63F 125.224.212.109 台灣 06/11 00:54
aljinn: 資料本身就是偏見結果+164F 27.52.129.177 台灣 06/11 03:30
v74451: 記者亂寫吧?很難相信資工系教授提出ai會65F 36.234.4.190 台灣 06/11 04:14
v74451: 種族歧視這種不專業的內容。
shiwa: 是人類本身的歧視才造成工具的歧視 因果要67F 140.114.226.125 台灣 06/11 05:04
shiwa: 搞清楚欸
sorrows: 黃猴子的誤判率是多少?怎麼沒寫?69F 223.137.106.10 台灣 06/11 05:52
qwaszxcde: 學術界也在搞這種左膠破政治正確 可憐70F 115.43.146.10 台灣 06/11 09:14

--
※ 看板: Gossiping 文章推薦值: 0 目前人氣: 0 累積人氣: 140 
分享網址: 複製 已複製
r)回覆 e)編輯 d)刪除 M)收藏 ^x)轉錄 同主題: =)首篇 [)上篇 ])下篇