European Commission
歐盟在本周三(4/21)公布了首個針對人工智慧(Artificial Intelligence,AI)的立法框架,以及與會員國的協調計畫,明確定義AI的風險,並將禁止或嚴格限制高風險的AI應用,而所有的遠端生物辨識系統全都被歐盟列為高風險,只能在有限的狀況下使用。
歐盟希望藉由AI立法框架與會員國之間的協調計畫,能夠在歐盟境內加強AI的採用、投資與創新時,確保人們與企業的安全及基本權利。
掌管數位時代政策的歐盟執行副主席Margrethe Vestager表示,對於AI而言,信任是必要的,而非可有可無的,藉由這些具備里程碑意義的規定,歐盟將帶動制定新的全球規範,以確保AI是值得信賴的,它們將設定標準,以於全球推廣基於道德的技術,並會在歐盟公民的安全與基本權利受到威脅時出手干預。
歐盟先是定義各種AI風險,從不可接受的風險(Unacceptable risk)、高風險(High-risk)、有限風險(Limited risk)到最小風險(Minimal risk:)。其中,任何明顯會威脅人身安全或人們生活與權利的AI系統將被絕對禁止,包含那些能夠操縱人類行為以違反人類自由意志的AI系統或應用,例如那些以語音來鼓勵未成年人進行危險行為的玩具,或者是政府用來進行社會評分的系統。
圖片來源/European Commission
至於只要是被應用在重要架構的AI系統都被視為高風險,從重大的基礎設施、教育/職業訓練、產品的安全元件、招募/員工管理系統、必要的私人與公共服務、執法、移民/庇護/邊境管制管理,以及司法與民主程序等。
舉凡要在這些高風險領域嵌入AI系統時,都必須遵守嚴格的義務,包括經過適當的風險評估,擁有高品質的訓練資料集,紀錄活動以利追蹤,詳細的文件,適當的人為監督,以及高度的健全、安全與精確性。
此外,所有遠端的生物辨識系統,都被列為必須符合嚴格限制的高風險應用,原則上禁止執法機構於公共場合中使用相關系統,少數的例外則可能出現在找尋失蹤兒童、避免緊急的恐怖威脅,或者是用來偵測與定位已確定或涉嫌重大刑事案件的犯人,在使用前必須獲得司法機構或其它獨立機構的授權,且必須限制使用時間。
有限風險的AI應用則具有透明化義務,例如使用者必須知道自己是與聊天機器人對話。最小風險的AI應用包括AI影音遊戲或垃圾郵件過濾機制等,歐盟表示,絕大多數的AI系統都落在這個類別,而該類別亦允許人們自由使用,不會受到新法規的規範。
相關法案將會在歐洲議會及歐盟會員國採納之後實施。
熱門新聞
2024-11-18
2024-11-20
2024-11-15
2024-11-15
2024-11-12
2024-11-19
2024-11-14