蘋果因2022年取消CSAM檢測功能被起訴,原告稱其違背了保護受害者的承諾快訊
蘋果公司因在 2022 年取消原定的兒童性虐待材料(CSAM)檢測計劃而被起訴,她通過執法報告和相關文件發現了超過 80 起與受害者圖像及蘋果產品相關的案例,一名 9 歲的 CSAM 受害者指控蘋果。
12 月 9 日消息,蘋果公司因在 2022 年取消原定的兒童性虐待材料(CSAM)檢測計劃而被起訴。一位童年時期曾遭受性虐待的 27 歲女性以化名起訴蘋果,指控其違背了保護受害者的承諾。
蘋果在 2021 年末曾宣布計劃通過設備端哈希值系統掃描 iCloud 中的圖片,以檢測和阻止 CSAM 傳播,并在用戶發送或接收含裸露內容的照片時發出警告。目前,裸露內容檢測功能(Communication Safety)仍然存在,但 CSAM 檢測功能因隱私專家、兒童安全組織和政府的廣泛反對被取消。
起訴者稱,她在 CSAM 檢測功能仍在時,曾接到執法部門的通知,發現她遭受性虐待的圖片通過一臺在佛蒙特州查獲的 MacBook 被上傳至了 iCloud。她在訴訟中表示,蘋果停止這一功能的決定使這些材料得以廣泛傳播,蘋果因此向消費者銷售了“有缺陷的產品”,對像她這樣的用戶群體造成了傷害。
據該女子的一名律師稱,原告要求蘋果改變其做法,并向可能多達 2680 名其他符合條件的受害者提供賠償,此類受害者有權根據法律獲得至少每人 15 萬美元的賠償。如果全部受害者成功獲得賠償,蘋果的賠償金額可能超過 12 億美元(備注:當前約 87.28 億元人民幣)。
類似的案件已在北卡羅來納州發生。一名 9 歲的 CSAM 受害者指控蘋果,稱她通過 iCloud 鏈接收到陌生人發送的非法視頻,并被鼓勵拍攝并上傳類似內容。蘋果公司提出了一項駁回案件的動議,指出聯邦法規第 230 條保護其免于對用戶上傳到 iCloud 的材料承擔責任。但近期法院裁定,這一法律保護僅適用于積極內容審核的情形,可能削弱蘋果的抗辯理由。
針對新訴訟,蘋果發言人弗雷德?塞恩茲表示:“蘋果認為兒童性虐待材料令人發指,我們致力于在不損害用戶隱私和安全的前提下積極打擊相關犯罪?!彼岬教O果擴展了信息應用中的裸露內容檢測功能,并允許用戶舉報有害材料。然而,原告及其律師瑪格麗特?馬比認為,蘋果的措施遠遠不夠。
馬比表示,她通過執法報告和相關文件發現了超過 80 起與受害者圖像及蘋果產品相關的案例,其中一個分享這些圖像的人是一名灣區男子,其 iCloud 賬戶中存儲了超過 2,000 張非法圖片和視頻。(遠洋)
1.TMT觀察網遵循行業規范,任何轉載的稿件都會明確標注作者和來源;
2.TMT觀察網的原創文章,請轉載時務必注明文章作者和"來源:TMT觀察網",不尊重原創的行為TMT觀察網或將追究責任;
3.作者投稿可能會經TMT觀察網編輯修改或補充。