科學期刊《Science》上周出版了一篇由美國普林斯頓大學(Princeton University)資訊技術政策中心與英國巴斯大學(University of Bath)計算機科學系的研究人員所共同發表的報告,指出自人類語言中進行深入學習的人工智慧(AI)系統同樣也會染上人類的種族與性別歧視。
科學家們指出,Google的AI技術AlphaGo已經對外示範機器能夠在短時間內學習人類花了好幾年才學會的技能,而且還可能超越人類,然而,有不少研究也顯示,從人們所建立的語料庫中學習的AI,也會學到人類潛意識中的各種歧視,包括種族或性別歧視等。
在人類的世界裡有一項測試稱為內隱聯結測驗(Implicit Association Test,IAT),它是在測試人們於潛意識中對於不同事物的感受或喜好,可能是花或樹木等物件,或是種族、性別、年齡、體形、膚色及國家等,科學家們則替AI系統建立一個字辭嵌入聯結測驗(Word-Embedding Association Test,WEAT),這是類似IAT的統計測試,以判斷AI系統的傾向與態度。
此一AI系統先從涵蓋網路文字的龐大語料庫中學習人類的用字與回應,接著科學家們再將該AI系統進行WEAT,不意外的,這個AI系統也學會了人們對各種事物的喜好或偏見。例如當出現花與昆蟲時,花與開心的聯結就比昆蟲與開心的聯結來得強烈。
不過,比較令人擔心的是AI系統在種族、性別或年齡上的歧視,實驗顯示,當AI系統看到歐裔美國人及非裔美國人的名字時,看到前者的開心程度高於後者。而在性別的測試上,則顯示相較於男性,女性名字與家庭的聯結度更甚於職業,女性名字與藝術的聯結也更甚於數學或科學。
IAT作者之一的社會心理學家Anthony Greenwald也對該報告作出了評論,他認為此一AI系統讓人們潛藏的態度與刻板印象浮上了檯面,除了展現機器的理解能力之外,卻也顯示出機器有可能意外成為年齡、種族或性別歧視的工具。
熱門新聞
2024-12-10
2024-12-08
2024-12-10
2024-12-10
2024-12-10
2024-11-29