蘋果
蘋果在8月5日公布新的兒童保護措施,將藉由掃描Messages程式與iCloud的內容,來阻止兒童色情內容的散布,卻遭到大量安全及隱私專家的反對,為此,蘋果公布了這項政策的常見問題(Frequently Asked Questions,FAQ),強調蘋果將會拒絕掃描兒童色情以外的內容。
對於避免兒童色情的散布,蘋果主要採取兩項作法,一是持續掃描用戶iCloud上存放的照片及影片,當所偵測到疑似兒童色情圖片的內容達到一定數量時,就會採取人工檢驗,並向主管機關檢舉,二是掃描兒童所使用的Messages程式是否傳輸兒童色情內容,以在察覺時通知家長。
對於外界批評蘋果對內容的偵測違反了端對端加密的政策,蘋果解釋,該公司是將已知的兒童性剝削內容(Child Sexual Abuse Material,CSAM)資料庫轉存為不可讀的雜湊組,再把它上傳到使用者的裝置上,並於裝置上比對使用者企圖上傳到iCloud上的照片,或是兒童透過Messages接收或傳遞的照片,使用者無法檢視雜湊的CSAM資料庫,蘋果也看不見相關的內容,都是透過人工智慧進行。
另一個遭到詬病的是,隱私與安全專家擔心蘋果可能會屈服於各國政府的壓力,既然能掃描CSAM內容,那麼也能掃描其它各國政府所要求的內容,並向各國政府機關檢舉。
對此,蘋果說明,CSAM資料庫是由美國失蹤兒童及童工保護中心(National Center for Missing and Exploited Children,NCMEC)所建立的資料庫,而且蘋果的技術也僅限於掃描符合CSAM資料庫的內容,也不會將其它的資料加入CSAM資料庫。
蘋果強調,該公司將會拒絕任何政府將其它內容加入CSAM資料庫的要求,過去是這樣,未來也是,此外,當該系統掃描到特定帳號上傳一定數量的CSAM內容至iCloud時,系統並不會直接向NCMEC檢舉,而是會再經由人工審核確定之後,再由蘋果決定是否關閉帳號並提報給NCMEC。
此外,對Messages傳送與接收內容的掃描,僅限於iCloud中設定家庭帳號並擁有12歲以下孩童的裝置,對iCloud的掃描則僅限於上傳到iCloud Photos的內容,蘋果並不會掃描存放於使用者裝置上的照片。
雖然蘋果嘗試藉由FAQ來解決外界的疑問,然而,各界對於蘋果能否抵擋各國政府的要求充滿了懷疑。英國安全工程教授Steven Murdoch即說,雖然蘋果承諾會挑戰來自政府的要求,不過英國已有先例,當初英國的ISP業者也曾透過訴訟以拒絕政府存取資料的要求,結果敗訴了。
吹哨者Edward Snowden亦指出,上一次中國向蘋果提出不合理的存取要求時,蘋果屈服了。Snowden指的是蘋果為了配合中國的在2016年通過的《網路安全法》,將中國用戶的iCloud服務,交給當地ISP業者貴州雲上負責經營。
另一名密碼學暨隱私研究人員Sarah Jamie Lewis則認為,一個好的安全設計是建置一個連製造商都無法危害的系統,假使安全必須仰賴誓言或是相信政府不濫權,等於不安全。
熱門新聞
2024-11-25
2024-11-25
2024-11-25
2024-11-24
2024-11-25
2024-11-22
2024-11-24