斯坦福大学、俄勒冈州立大学和谷歌的科学家们发现,像素级的照片处理无法抵御面部识别系统。
研究人员测试了两个数据中毒程序,Fawkes 和 LowKey,它们在像素级别巧妙地改变图像。 这种修改是肉眼看不见的,但它们会混淆人脸识别系统。
作者说,这两种工具都是免费提供的,这是他们的主要问题。 多亏了这一点,人脸识别系统的开发人员可以教他们的模型忽略“中毒”。
“使用黑盒访问的自适应模型训练 [программ модификации фотографий] 可以立即训练出可靠的抗中毒模型,”科学家们说。
据他们说,这两种工具在引入网络后一年内发布的面部识别软件版本的性能都很差。
此外,研究人员害怕创建更好的识别算法,这些算法最初能够忽略照片的变化。
“有一个更简单的防御策略:模型制造商可以等待更好的面部识别系统不再容易受到这些特定攻击,”该文件说。
该研究的作者强调,为了防止生物特征识别而修改数据不仅不能提供安全性,还会产生虚假的安全感。 这可能会伤害那些不会在线发布照片的用户。
研究人员表示,在互联网上保护用户隐私的唯一方法是通过立法限制面部识别系统的使用。
回想一下,在 2021 年 5 月,工程师引入了免费的 Fawkes 和 LowKey 工具来防止生物特征识别算法。
4 月,初创公司 DoNotPay 开发了一项服务,以保护 Photo Ninja 面部识别系统中的图像。
在 Telegram 上订阅 ForkLog 新闻:ForkLog AI – 来自 AI 世界的所有新闻
在文本中发现错误? 选择它并按 CTRL+ENTER
内容搜集自网络,整理者:BTCover,如若侵权请联系站长,会尽快删除。