2022.06.09 10:18 臺北時間

AI竟暗藏種族歧視因子 清大跨國團隊揭露醫學倫理隱憂

mm-logo
生活
清華資工系助理教授郭柏志(中)帶領學生陳立晴(左)、王瑞恩(右)參與AI也會種族歧視的跨國研究。(清華大學提供)
清華資工系助理教授郭柏志(中)帶領學生陳立晴(左)、王瑞恩(右)參與AI也會種族歧視的跨國研究。(清華大學提供)
AI人工智慧也會種族歧視?清華大學資工系助理教授郭柏志與麻省理工學院、哈佛大學跨國研究發現,當採用先進的AI深度學習演算法來判讀X光片及電腦斷層掃描時,電腦竟可以從這些醫學影像分辨出患者是黑人、白人或亞洲人,並影響判斷的準確率。科學家迄今還不明白AI是如何辦到的。
郭柏志指出,醫界近年大量引進人工智慧,研發醫療機器人、智慧診療、及醫學影像識別技術等,協助醫生更快速、準確地診斷,這本該是造福病患的好事;但這項研究也揭露其中的隱憂,提醒我們應該注意醫療倫理問題,並消弭引進人工智慧產生的醫療不平等現象。
這項橫跨4國的跨國研究團隊,還包括了史丹佛大學、多倫多大學等,與美國國家衛生院合作,分析超過20萬位病患的胸部、頸椎、手部X光及胸部電腦斷層掃描,揭露人工智慧也有歧視問題的驚人真相。這項研究成果最近登上了國際頂尖期刊《刺胳針數位健康》(Lancet Digital Health),並吸引外媒的重視報導。
美國食品藥物管理局(FDA)目前已核准醫院採用人工智慧輔助判讀X光片及電腦斷層掃描等醫學影像,人工智慧的深度學習系統可幫助電腦針對大量資料自我訓練,並發展出辨識模型。研究團隊發現,人類放射師無法從X光片判斷出患者的種族,但AI卻能輕易做到,且準確率高達9成。
團隊中一名哈佛大學教授表示,當團隊成員告訴他AI可以從X光片來判斷人種,他簡直不敢置信,認為這真的太瘋狂,一定是哪裡出錯了。當愈來愈多的證據浮現,有團隊成員則直言感覺很「恐怖」。
人工智慧聚焦X光片食指、中指的第三指節(紅色處)來判斷人種。(清華大學提供)
郭柏志表示,團隊本來猜想AI可能是從骨質密度來判斷人種,因黑人的骨質密度高於白人,但後來發現並非如此。郭柏志出示一張手掌的X光片,顯示AI判讀人種的重點聚焦在中指與食指的第三指節,「團隊裡也有20、30年經驗的放射科醫師,但我們實在想不出來AI是怎麼判讀出人種的。」
更令研究團隊憂心的是,人工智慧的種族歧視也影響了醫學影像判讀的準確率。郭柏志表示,研究發現白人的醫學影像有問題卻沒被檢查出來的誤判率是17%,但黑人的誤判率卻高達28%,相差超過10%。而醫學影像的誤判也會進一步影響急診、醫療給付等資源分配。
郭柏志說,我們原來以為人類才會歧視,電腦應該是最公平的,但沒想到電腦也默默地提取了人類沒教它的資訊,包括人種及性別等,「如何去除歧視,讓各族群的醫學影像判讀都有一致的準確率,是我們下一階段要努力的目標。」
郭柏志帶領清華大學2位資工系的大四學生王瑞恩、陳立晴參與了這項跨國研究。王瑞恩表示,參與這麼大規模的跨國研究,對大學部的學生來說是很難得的機會,他在團隊中負責人工智慧模型分析,獲益良多。
更新時間|2023.09.12 20:42 臺北時間
延伸閱讀

支持鏡週刊

小心意大意義
小額贊助鏡週刊!

每月 $79 元全站看到飽
暢享無廣告閱讀體驗

更多內容,歡迎 鏡週刊紙本雜誌鏡週刊數位訂閱了解內容授權資訊

月費、年費會員免費線上閱讀動態雜誌

線上閱讀

更多內容,歡迎 鏡週刊紙本雜誌鏡週刊數位訂閱了解內容授權資訊

月費、年費會員免費線上閱讀動態雜誌

線上閱讀