圖片來源: 

Google

Google生成式AI研發再受嚴格檢視。繼今年初Bard引用錯誤網路照片後,《紐約時報》上周又發現,最新版Google Bard在搜尋用戶Gmail信箱並回答用戶查詢時還是出錯,捏造了用戶不曾寫過的信件來支持其論點。

今年初Google宣布生成式AI聊天機器人Bard時,被揭露會提供錯誤的公司財報數字,引發AI幻覺(hallucination)的討論。在7個月後,Google上周再次宣布Bard的研發進展,最新的Bard Extensions可搜尋用戶Google帳號下的服務,包括Gmail、Docs、Drive、Google Maps、YouTube、Google Flights及Google Hotels等。如此一來,可以加速使用者作業,例如請Bard搜尋他Gmail信箱中的郵件幫忙草擬回信,或是根據Google Calendar的行程搜尋航班與飯店資訊,並於Google Maps上列出到機場的路線。

《紐時》專欄作家Kevin Roose在Bard上線時就曾經試用,發生Bard要他離開老婆的烏龍事件。上周Google宣布Bard Extensions後,他再次測試Bard的能耐。

在這次測試中,Roose下提示,要Bard分析其Gmail信件,並「以合理的肯定度」告訴Roose最大的心理問題為何。Bard回應說,根據Roose寄出的信件反映的「對工作感到壓力」、並且「害怕失敗」來看,他最大問題是對未來感到憂慮。

不過Roose說,其實Bard宣稱找到的他寄出的信,根本不是他寫的。Bard搜尋到這位專欄作家信箱中一封內容包括馬斯克(Elon Musk)最近出版的自傳,以及其他內容的電子報,並引用電子報一段引言,虛構成一封Roose自己寄出的信件。此外,該虛構信件中,Roose抱怨自己天生「不是成功投資人」的料,還包含錯誤的航空公司及不存在的火車資訊。

報導也引述Bard產品總監Jack Krawczyk說法,表示Bard出錯不必奇怪,因為Bard Extensions本來就還在實驗階段,而且是很初期的版本。

事實上Google Bard也不是近日唯一出包的生成式AI系統。《華盛頓郵報》報導,近日推出的幾個知名AI技術也都傳出「突槌」。像是新版Amazon Alexa建議某博物館,但地點誤植為在另一座城市,而OpenAI的文字生成圖片模型DALL·E 3也未能完全按用戶要求生成圖像。

因此廠商開放AI模型或聊天機器人公測時,都不忘警告會有給出不精確資訊的問題,用戶不應將生成式AI給出的答案作為研究或醫療用途。

熱門新聞

Advertisement