背景圖片取自Jean-Philippe Delberghe on Unsplash

在傳出已經解散成立不到一年的超級對齊(Superalignment)團隊之後,OpenAI董事會周二(5/28)宣布成立了一個新的安全委員會(Safety and Security Committee),將負責針對OpenAI專案與經營的安全決策向董事會提出建議,而該委員會的主要領導人為OpenAI董事長Bret Taylor、執行長Sam Altman,以及另外兩名董事成員Adam D’Angelo與Nicole Seligman。

OpenAI表示,最近該公司開始訓練新一代的前沿模型,預期其最終系統將能在前往通用AI的道路上達到一個新的能力水平,即使它們自豪於可以建置與推出同時具備能力及安全的模型,但在此一重要時刻依然歡迎辯論。

該委員會的首個任務便是在未來的90天,評估與發展OpenAI的安全流程及保障措施,完成後再向董事會提出建議,經過董事會的審核後再與大眾分享最終決議。

除了上述的4名成員之外,此一安全委員會也會延攬OpenAI的技術與政策專家Aleksander Madry、安全系統主管Lilian Weng、對齊科學主管John Schulman、安全主管Matt Knight及科學長Jakub Pachocki加入,並聘請外部的安全及技術專家來支援。

不過,外界批評由執行長Altman來主導安全委員會有球員兼裁判之嫌,何況原本共同擔綱超級對齊團隊負責人的OpenAI共同創辦人Ilya Sutskever與OpenAI研究人員Jan Leike先後離職的原因,都是不滿OpenAI對安全的重視不足。

此外,先前參與罷黜Altman的OpenAI前董事成員Helen Toner,本周在一個播客節目《The Ted AI Show》上透露,當初Altman之所以會被免職是因為Altman確實向董事會撒謊並隱瞞許多事情,包括沒有完全公開OpenAI的安全流程,而當初董事會更是經由Twitter才知道OpenAI發表了ChatGPT。

本月才離開OpenAI的Leike已經找到了新工作,宣布將加入Anthropic,繼續從事超級對齊任務,此一新團隊將致力於推動可擴展的監督、由弱至強的泛化,以及自動化對齊研究等,並正在招兵買馬。

Anthropic是由來自OpenAI的兄妹檔Dario Amodei與Daniela Amodei共同創辦,同時獲得Amazon與Google的投資,所開發的Claude模型被外界視為是市場上最有潛力挑戰GPT的產品。

熱門新聞

Advertisement