蘋果
9to5Mac指出,蘋果已向該報證實,該公司從2019年就開始掃描進出 iCloud Mail 的郵件是否含有兒童性剝削內容(Child Sexual Abuse Material,CSAM),也會掃描其它的部份,但並未包含iCloud Photos或iCloud備份。
蘋果是在今年的8月初公開揭露,將於蘋果各作業系統上植入雜湊的CSAM資料庫,當使用者要上傳照片到iCloud時,就會與該資料庫進行比對,一旦符合CSAM資料庫的照片數量達到30張,便會觸發警報並進入人工審查階段,再決定是否關閉該用戶的帳號或通報主管機關。
當各界都在質疑蘋果此舉觸犯了使用者的隱私權,同時也替蘋果平臺留下後門之際,9to5Mac的編輯發現,蘋果因與Epic Games打官司而曝光的文件中,蘋果反詐騙長Eric Friedman在訊息中透露,臉書強力打擊假帳號,但在隱私上非常地糟糕,蘋果剛好相反(非常注重隱私),但卻讓蘋果成為散布兒童色情的最佳平臺。
這段話吸引了9to5Mac的注意,好奇蘋果怎麼知道自家平臺是散布兒童色情的最佳管道,於是詢問了蘋果,結果蘋果證實了該公司的確自2019年,就開始掃描iCloud Mail的附加檔案是否含有CSAM。
蘋果還向9to5Mac坦承,除了iCloud Mail外,他們也掃描了其它少數的資料,但並不包括iCloud備份。
不過,就算如此,要宣稱自己是散布兒童色情的最佳平臺,總是得有其它的比較對象,那麼其它平臺如果不是藉由掃描CSAM,又如何能封鎖特定帳號,或是檢舉用戶呢?人們的隱私權在數位時代似乎很難保全。
熱門新聞
2024-11-18
2024-11-20
2024-11-12
2024-11-15
2024-11-15
2024-11-19