有11名OpenAI的前任及現任員工,再加上兩名DeepMind的前任與現任員工,在本周簽署了一封公開信「對先進AI發出警告的權利」(A Right to Warn about Advanced Artificial Intelligence),在這13名AI從業人員中,有6名現任員工,但有5位是匿名的,或許是擔心遭到報復或受到杯葛。
他們在信中表示,相信AI對人類帶來好處的潛力,但也理解AI可能帶來的嚴重風險,包括強化現有的不平等、操縱、不實資訊,或是失去對AI系統的控制而造成人類滅絕等,它們是AI領域公開承認的風險,原本期望可在科學界、立法者與公眾的充分指引下得到緩解,然而,他們認為AI公司有很強的財務動機來避免有效的監督。
此外,AI公司擁有大量的非公開資訊,包括系統能力與侷限性,保護措施的充分性,以及不同傷害的風險等級等,但它們現階段只有與政府分享部分資訊的微小義務,而未與民間分享。當政府未能對其有效監督之際,員工就是少數能夠督促它們負責的人,但他們擔心各種的挾怨報復。
因此,他們提出了幾點的呼籲,包括不強制員工簽署禁止批評公司的協議,也不報復那些提出風險批評的員工;AI公司應建立一個匿名舉報機制,以允許前任或現任員工可向董事會、監管機構或獨立組織來檢舉風險問題;AI公司應該在貿易機密與智慧財產權受到適當保護的情況下,支持開放批評的文化;不報復那些在其它檢舉途徑失效,而公開分享風險機密訊息的員工。
該活動的召集人之一是OpenAI治理部門的前研究員Daniel Kokotajlo,他透過X解釋,他在失去對OpenAI可負責任建置通用AI的信心之後,於今年4月辭職。
Kokotajlo表示,他在加入OpenAI時,曾經希望隨著系統變得更強大,會在安全研究上投入更多的資金,但OpenAI從未有此轉變,意識到此事的同事開始離職,他不是第一個,也不會是最後一個。此外,在他離職的時候,OpenAI要求他簽署一份協議,阻止他批評公司,若不簽署就會失去他的OpenAI股權。
Kokotajlo認為,AI系統並非普通軟體,它們是從大量資料中學習的人工神經網路,對於這些系統的運作、可能超越人類智慧,或是能否具備與人類一致的利益,都有許多的未知,與此同時,相關技術幾乎缺乏監督,反而是由AI企業自治,而經濟動機與對技術的興奮,不時令這些業者快速行動並打破常規。
最後決定拒絕簽署噤聲協議的Kokotajlo強調,讓研究人員噤聲並使他們害怕報復是危險的,因為他們是目前唯一能夠警告公眾的人。
熱門新聞
2024-11-29
2024-12-02
2024-11-30
2024-11-29
2024-11-29
2024-11-29
2024-11-29