苹果公司发布了一份长达六页的文件,回答了有关技术如何扫描用户照片中是否存在虐待儿童的问题。
该公司否认重新利用其工具来搜索用户手机和计算机上除 CSAM 之外的其他类型材料的可能性。 据苹果代表称,他们不会扩大扫描功能的覆盖范围,并将免除当局的任何此类要求。
“过去,我们面临着创建和实施政府批准的、损害用户隐私的变革的要求,并且顽固地拒绝了这些要求。 未来我们将继续放弃它们,”该公司表示。
苹果公司澄清说,这些功能最初只会在美国推出。 该公司承诺,在推出该工具之前,将对每个国家进行彻底的法律评估,以避免当局滥用。
苹果还澄清了 Messages 中虐待儿童图像扫描和露骨照片检测工具的一些细节:
- 必须激活 iCloud 才能使 CSAM 发现正常工作。 Apple 仅搜索与其云系统共享的内容。
- Apple 不会将虐待儿童的图片上传到你的设备进行比较。 相反,该算法使用已知 CSAM 图像的哈希数据库。 这些代码将被加载到手机的操作系统中,它会自动将上传到云端的照片与数据库中的哈希值进行比较。
- iCloud 将扫描云中的所有照片,而不仅仅是新照片。 未来除了扫描要上传到 iCloud 的照片外,苹果还计划检查其云服务器上存储的所有照片。
- 保护儿童免受淫秽照片侵害的消息功能不会与 Apple 或执法部门共享数据。 幼儿的父母在发送或接收每张偷拍照片时不会收到警报。 系统会先要求孩子确认查看。 如果他同意,父母将收到通知。 该功能仅适用于家庭组并手动激活。
- 系统不会通知青少年的父母查看信息中的露骨内容。 对于13-17岁的儿童,系统会模糊照片并警告内容的危险性。
- 解析消息中的图像不会破坏端点加密货币。 直接在信件到达的设备上检查照片。 公司不会将这些数据传输到云端。
尽管苹果做出了澄清,但专家和隐私权倡导者对这些创新表示担忧。 安全专家马修格林表示,该系统存在可能被执法机构利用的漏洞。
有人向我提出了以下方案,我很好奇法律是什么。
1. 美国司法部联系 NCMEC,要求他们将非 CSAM 照片添加到哈希数据库中。 2. 当这些照片针对 Apple 用户触发时,美国司法部会向 Apple 发送保存令以获取客户 ID。
– 马修格林 (@matthew_d_green) 2021 年 8 月 9 日
我们要提醒的是,8 月 6 日,Apple 谈到了一种用于扫描用户照片是否存在虐待儿童的工具。
6 月,Apple 推出了带有 Face ID 和 Touch ID 的无加密货币注册。
2020 年 12 月,Apple 发布了 iOS 更新,允许用户禁用应用内收集个人数据。 新规则引起了应用程序开发商的愤怒,主要是 Facebook 和谷歌。
在 Telegram 上订阅 ForkLog 新闻:ForkLog AI – 来自 AI 世界的所有新闻
发现文中有错误? 选择它并按 CTRL + ENTER
内容搜集自网络,整理者:BTCover,如若侵权请联系站长,会尽快删除。