蘋果
蘋果計畫在今年問世的iOS中嵌入兒童色情掃描機制,以遏制兒童性剝削內容(Child Sexual Abuse Material,CSAM)的散布,然而,隱私與安全專家群起反對,本周一名GitHub用戶Asuhariet Ygvar公布了蘋果用來將CSAM加密的NeuralHash雜湊技術模型,幾小時後就有另一名用戶Cory Cornelius找到該演算法的漏洞,製造了雜湊碰撞(Hash Collisions),讓兩張不同的圖片產生一樣的加密指紋,然而,蘋果向Motherboard表示,Ygvar所公布的NeuralHash是通用版,並非蘋果所採用的版本。
蘋果準備在iOS 15、iPadOS 15、watchOS 8與macOS Monterey等作業系統上嵌入CSAM資料庫,並透過NeuralHash將資料庫中的照片轉換成獨立的加密金鑰,當使用者要將照片上傳到iCloud時,系統就會將該照片與CSAM資料庫進行比對,在符合的筆數達到30筆之後,就會觸動警報,再改由人工手動檢查這些照片,決定是否通報主管機關或關閉使用者帳號。
雖然蘋果的用意是為了保護兒童,但隱私與安全專家卻認為此事不可為,認為CSAM偵測功能將成為蘋果作業系統的後門,已有超過8,000名GitHub用戶連署反對,電子前線基金會(Electronic Frontier Foundation,EFF)亦於近日發動連署。
在反對之餘,資安專家也詳細檢視蘋果的作法,包括NeuralHash在內。儘管蘋果宣稱未來的作業系統使用的是蘋果變更過的NeuralHash版本,而不是Ygvar所公布的版本,但約翰霍普金斯大學的密碼學教授Matthew Green認為,碰撞既然會發生在一般版的NeuralHash,應該也會發生在蘋果的版本上。
只不過,目前看來NeuralHash的碰撞並不會對CSAM的偵測帶來太多問題,因為它頂多可把非CSAM的圖片標記成CSAM圖片,快速達到跳出警告的30張門檻,造成手動檢查人員的困擾。
即使外界的反對聲浪不斷,惟迄今蘋果仍尚未釋出可能改變心意的訊息。
熱門新聞
2024-11-25
2024-11-25
2024-11-25
2024-11-25
2024-11-24
2024-11-22
2024-11-25