微軟周末為上周出盡洋相的人工智慧聊天機器少女Tay出面道歉,並說明原因何在,待克服弱點後重新讓Tay上線。
上周四Tay在Twitter等社群媒體上線,微軟表示,她可以透過「輕鬆、有趣的對話來和人們互動」,而且使用者和Tay講愈多話,它就會愈聰明、使互動愈個人化。不料24小時不到,Tay被網友灌輸極端思想,最後發出反女性主義、支持納粹、充滿種族仇恨的偏激言論,遭到微軟緊急下線。
周末期間微軟研究院企業副總裁Peter Lee正式透過公司部落格道歉。「我們對Tay出人意料發出冒犯性與傷害性的推特文致上最深歉意,這並非我們原意、也不是我們當初設計Tay的目的。」
微軟強調該公司的聊天機器人並不是一開始就一塌糊塗,表示微軟在中國推出「小冰」就以說故事和聊天贏得將近4000萬人的歡迎。
他指出,微軟在Tay開發過程中加入了多種過濾機制來防止遭人操弄,也針對不同使用族群做了廣泛的使用者研究。Tay曾在多種情境下做過壓力測試,尤其重視如何讓Tay和人創造出愉快的互動,結果都反應良好,因而希望擴大測試,才會在Twitter上線。
他表示,雖然之前練兵許多次防止Tay遭濫用,但仍百密一疏,讓一小群人針對Tay的一個弱點發動聯合攻擊,「對此未能預見這點,我們負完全責任」。
微軟並未說明「弱點」為何,有說法是知名論壇4chan之下的/pol/討論區成員濫用了Tay「跟我這樣說(repeat after me)」的功能,使Tay一天之內變成了滿嘴髒話又思想偏激的怪物。
微軟表示,將記取這次教訓,同時結合在中國、日本及美國研究基地學到的經驗,目前微軟正致力解決Tay遭到攻擊的弱點,並會在有信心處理「違背我們原則與價值觀」的惡意行為後,再讓她回到線上。
但也有人質疑一個討論區會有這麼大能耐,質疑Tay可能壓根未執行線上學習,而是用來訓練Tay的資料原本就是有問題的,因此她說出的話是來自她之前的養成,而非上線後的互動結果。
熱門新聞
2024-11-25
2024-11-29
2024-11-15
2024-11-15
2024-11-28
2024-11-14