在OpenAI董事會於11月開除創辦人暨執行長Sam Altman之後,不斷有傳聞指出是因Altman企圖推出可能威脅人類的產品才使得董事會不得不採取行動,縱使OpenAI當初僅以Altman不夠坦承為由輕輕帶過,且迄今尚未公布具體事由,但本周一(12/18)OpenAI公布了該公司的模型評估策略,並說董事會將有權力推翻管理階層的決策。
OpenAI原本就有兩個負責檢驗模型風險的團隊,一是安全系統(Safety Systems)團隊,負責的是減輕已商業化模型或產品的風險及誤用,例如ChatGPT。二則是負責監督先進的超智慧(Superintelligent)模型的超對齊(Superalignment)團隊,而本周OpenAI發表了一個介於安全系統與超對齊之間的準備(Preparedness)團隊,鎖定發展階段介於現有模型與超智慧模型之間的前沿模型(Frontier Model),專門檢驗前沿模型的風險。
準備團隊將把風險的討論從假設場景轉移到具體測量與基於資料的預測,目前的作法是評估且不斷更新前沿模型的記分卡,探究模型不安全因素的具體邊緣,並有效地降低已揭露的風險,此一記分卡會列出前沿模型在網路安全、CBRN(化學、生物、放射線、核威脅)、說服力與模型自主性的風險等級(重大、高、中度、低度),只有在緩解後處於高度或以下風險的模型才會繼續開發,也只有在緩解後處於中度或以下風險的模型才會被部署。另對於高度或重大風險等級的模型,則會為其量身訂做額外的安全措施。
準備團隊所檢驗與評估的是即將進入商業化的模型或產品,並提出綜合報告,再由OpenAI即將成立的安全顧問小組(Safety Advisory Group)來審核所有的報告,且同時將這些報告送給管理團隊及董事會。OpenAI指出,雖然決策是由管理團隊執行,但董事會有權力推翻這些決策。
此外,OpenAI也會制定各種規則來增加安全性與外部的問責,由準備團隊定期展開安全演習,以針對OpenAI的業務及文化進行壓力測試。
AI的風險或許尚不可知,但OpenAI指出,該公司內部團隊將與外部組織密切合作,追蹤現實世界的濫用行為,也會由超對齊團隊來追蹤緊急的錯位風險,同時展開新研究來衡量那些隨著模型擴展而衍生的風險,持續試著探測與揭露那些尚不可知的未知風險。
熱門新聞
2024-12-24
2024-12-22
2024-08-14
2024-12-20
2024-11-29