圖片來源: 

Governor's Office of Emergency Services (Cal OES)

美國加州參議員及議會分別在今年5月與8月底通過了AI法案SB 1047,已交予加州州長Gavin Newsom,Newsom必須在今年9月30日以前接受或否決該法案,就在OpenAI公開反對該法案之際,由上百個來自OpenAI、Google DeepMind、Anthropic、Meta與xAI等AI公司的員工,卻連袂贊成該法案

SB 1047的全名為《前沿人工智慧模型的安全可靠創新法案》(Safe and Secure Innovation for Frontier Artificial Intelligence Models Act),該法案是為了確保AI模型的安全及可控性,防止AI可能帶來的潛在危害,以及強化開發AI的透明度與問責。

具體而言,該法案要求開發者在訓練模型前,必須遵守該法案的要求,其中之一是必須設計一個能夠完全關閉模型的能力;制定書面的安全協議;保留安全協議副本至少5年;禁止將模型用於可能造成重大傷害的應用;禁止公開或商業使用具不合理風險的模型;從2026年起必須經由第三方審核。

目前身為全球AI龍頭的OpenAI早就反對該法案。反對理由包括認為AI革命才剛開始,加州應該趁此時推動其經濟活力,但SB 1047卻威脅了它的成長,減緩創新步伐,還可能讓世界級工程師與企業家離開加州。

此外,OpenAI也認為,若AI可能威脅國家安全,那麼應該是從聯邦的角色來制定政策,而非由各州拼湊的不同政策,統一的政策將可替AI實驗室與開發人員帶來確定性,同時維護大眾安全。

由英特爾、AMD、Linux基金會、Meta及IBM共同成立的AI聯盟(AI Alliance)同樣也反對SB 1047。AI聯盟的立場與OpenAI不同,因為此一聯盟主要推動的是開源模型,指出開源一直是一種更安全也更透明的技術開發方式,但SB 1047要求開發者必須能夠完全控制模型的關閉幾乎是不可行的,因為當開源模型被第三方下載之後,開發者就無法再控制該模型。

不過,有上百個來自主流AI公司的開發人員、科學家或研究人員,卻連署呼籲加州州長Newsom應該簽署該法案。他們在聲明書上表示,相信最強大的AI模型可能很快就會帶來嚴重風險,諸如擴大生物武器的使用範圍,或是針對關鍵基礎設施的網路攻擊,要求AI公司測試AI模型,並針對此類風險實施合理的保障措施是可行且適當的。

公開署名的有Anthropic運算主管James Bradbury,曾於Google Brain任職的圖靈獎得主Geoffrey Hinton,xAI的法務長Rob Keele 等,還有部分員工可能怕被秋後算帳而選擇匿名。

熱門新聞

Advertisement