Future of Life Institute
特斯拉執行長馬斯克(Elon Musk)、蘋果共同創辦人Steve Wozniak等科技大老昨(29)日指出AI可能對社會和人類帶來重大風險,公開呼籲暫停開發比OpenAI的GPT-4高階的AI系統至少6個月。
這份公開信是由非營利組織未來生活研究院(Future of Life Institute)發表,獲得1,300多人聯署,包括馬斯克、Wozniak、Stability AI公司執行長Emad Mostaque、Google AI部門DeepMind研究人員等人簽署聲援。
這份公開信指出,近幾個月各AI實驗室已陷入失控的競賽,發展與部署更強大,但甚至連發明者都無法理解、預測和控制的AI。人類必須思考AI可預見的風險,包括散布假訊息、自動化所有工作、超越或取代人類,甚至控制人類社會。為了防範這些情形發生,公開信贊同OpenAI的觀點,認為在訓練未來AI系統前應獲得獨立審查,並且限制投入開發新模型的運算資源。
這份公開信呼籲立即暫停訓練比GPT-4更強大的AI系統至少6個月,必須包含所有關鍵人士,且需公開且可驗證。若無法立即暫停,各國政府應介入強制中止。
而在暫停期間,AI實驗室和獨立專家共同開發安全規範,以開發精確、安全、可解釋、一致化及可信任的AI系統,並由外部獨立人士嚴格稽核有確實遵守。他們強調,暫停措施並不是要求全面性停止AI開發,只是希望能阻止危險的發展競賽,使其開發出不可預測及不透明的AI模型。
同時公開信要求,AI開發人員應與立法機關合作,加速AI治理系統的建立。這個系統包括成立專門主管機關、AI監管及追蹤工具、強大運算能力、稽核與認證系統、辨別AI合成內容及追蹤模型外洩的浮水印技術,以及以公共基金支持AI安全研究,並建立AI傷害究責、因應AI政經破壞的系統。
因應AI技術的快速演進,各國政府已有管制AI的倡議。歐盟計畫正在規畫第一部《人工智慧法案》(AI Act),旨在強化AI模型的資料品質、透明度、人為監控及責任。中國則在今年初發布人工智慧合成影片服務的管理法規,要求Deepfake影片應加上顯著標識以避免公眾混淆。
OpenAI執行長Sam Altman近日也指出,魯莽發展超智能的通用式AI(Artificial General Intelligence,AGI)對世界造成的傷害和獨裁體制相同,共同規範AGI在關鍵時刻放慢腳步有其必要性。但OpenAI並未對此公開信發表評論。
熱門新聞
2024-12-22
2024-12-20
2024-12-22
2024-12-20