苹果承诺不会将非法内容检测算法变成监控工具

苹果公司发布了一份长达六页的文件,回答了有关技术如何扫描用户照片中是否存在虐待儿童的问题。

该公司否认重新利用其工具来搜索用户手机和计算机上除 CSAM 之外的其他类型材料的可能性。 据苹果代表称,他们不会扩大扫描功能的覆盖范围,并将免除当局的任何此类要求。

“过去,我们面临着创建和实施政府批准的、损害用户隐私的变革的要求,并且顽固地拒绝了这些要求。 未来我们将继续放弃它们,”该公司表示。

苹果公司澄清说,这些功能最初只会在美国推出。 该公司承诺,在推出该工具之前,将对每个国家进行彻底的法律评估,以避免当局滥用。

苹果还澄清了 Messages 中虐待儿童图像扫描和露骨照片检测工具的一些细节:

  • 必须激活 iCloud 才能使 CSAM 发现正常工作。 Apple 仅搜索与其云系统共享的内容。
  • Apple 不会将虐待儿童的图片上传到你的设备进行比较。 相反,该算法使用已知 CSAM 图像的哈希数据库。 这些代码将被加载到手机的操作系统中,它会自动将上传到云端的照片与数据库中的哈希值进行比较。
  • iCloud 将扫描云中的所有照片,而不仅仅是新照片。 未来除了扫描要上传到 iCloud 的照片外,苹果还计划检查其云服务器上存储的所有照片。
  • 保护儿童免受淫秽照片侵害的消息功能不会与 Apple 或执法部门共享数据。 幼儿的父母在发送或接收每张偷拍照片时不会收到警报。 系统会先要求孩子确认查看。 如果他同意,父母将收到通知。 该功能仅适用于家庭组并手动激活。
  • 系统不会通知青少年的父母查看信息中的露骨内容。 对于13-17岁的儿童,系统会模糊照片并警告内容的危险性。
  • 解析消息中的图像不会破坏端点加密货币。 直接在信件到达的设备上检查照片。 公司不会将这些数据传输到云端。

尽管苹果做出了澄清,但专家和隐私权倡导者对这些创新表示担忧。 安全专家马修格林表示,该系统存在可能被执法机构利用的漏洞。

我们要提醒的是,8 月 6 日,Apple 谈到了一种用于扫描用户照片是否存在虐待儿童的工具。

6 月,Apple 推出了带有 Face ID 和 Touch ID 的无加密货币注册。

2020 年 12 月,Apple 发布了 iOS 更新,允许用户禁用应用内收集个人数据。 新规则引起了应用程序开发商的愤怒,主要是 Facebook 和谷歌。

在 Telegram 上订阅 ForkLog 新闻:ForkLog AI – 来自 AI 世界的所有新闻

发现文中有错误? 选择它并按 CTRL + ENTER

内容搜集自网络,整理者:BTCover,如若侵权请联系站长,会尽快删除。

(0)
BTCover的头像BTCover
上一篇 29 8 月, 2021 11:50 上午
下一篇 29 8 月, 2021

相关推荐