不斷推進人工智慧(AI)模型的Meta上周公布一項以協助撰寫科學報告文獻的AI模型Galactica,但被研究人員批評可能撰寫出有偏見及謬誤文獻的倫理問題,MIT Technology Review報導,這模型上線三天後就被撤下。

Meta是在上周公布Galactica,並邀請科學家測試,它是一個大型語言模型(large language model,LLM),旨在協助研究人員撰寫科學報告。Meta團隊宣稱它是以超過4,800萬份報告、課本、教學筆記、科學家網站及百科全書訓練而成。Galactica號稱研究人員只要在其網站輸入一些提示詞,背後的AI模型就能產出像是文獻回顧、Wiki文章、教學筆記、或是單純回答科學提問,能加速科技研究。

但Galactica對科學家來說,存在LLM相同的問題,即這些LLM即使能產出看似有條理的文字,但其實並無法理解其中意義。因此科學家發現LLM模型可能產出具有偏見的文章,或是出現事實謬誤。

而一些研究人員測試Galactica ,也發現有許多問題。例如一名研究人員測試Galactica數次發現,它的問題包括,雖然寫出看似合理的文章,也引述了確有其人的作者,但引述來源文獻是錯的,另一次則是引述了一篇根本不存在的文獻。

研究人員認為Galactica是很有趣的計畫,但它在產出符合文法、具權威感文字的能力下,卻引進謬誤但難以察覺的科學知識,反而相當危險,可能危害真正的科學研究,也傷害被錯誤引述的學者。

在眾多批評下,Meta已將Galactica暫時下線。Meta AI的首席AI科學家Yan LeCun說,外界已無法誤用它來取樂了。

如果點入Galactica網頁,現在只看到一段文字顯示感謝社群的回饋意見,這項展示已經暫停,該模型目前只提供給想進一步了解、且複製報告結果的研究人員。

這也顯示AI雖然進步很快,但在價值判斷的能力上則像個人類小孩。微軟2016年測試的AI語音助理Tay在上線1天就被網友「教壞」而發表種族歧視、性別偏見的言論,隔天就被微軟撤下,而後新一代的Zo則被設定不能談種族或政治議題

熱門新聞

Advertisement