资料图
很明显,面部识别模型被面部识别系统用来识别一个特定的人。AI接受的图像越多,它就能越能准确地识别随机视频和图像中的人物--包括实时监控等。很多人都没有意识到这些面部识别模型的存在,而这对隐私的影响真的很可怕。
企业和政府能通过简单地收集人们在网上自由发布的自己的图片来训练他们的人工智能模型。大量的信息被输入到人工智能系统中并由此形成一个难以阻止的难题。
芝加哥大学SAND实验室的研究人员为解决这一问题迈出了一步,他们让普通人能对自己的图像进行复杂的控制。该团队已经公开发布了Fawkes,一个简单、免费的工具,它使用人工智能对一个图像进行微调从而使其在人类看来是不变的但在人工智能系统训练时却变得“高度扭曲”。
研究人员解释称,通过向系统输入这些图像,某人本质上是在参与一种“攻击”,通过破坏系统对那个人长相的理解来毒害系统。输入给人工智能的每一张“中毒”图像都降低了它在图像和视频中准确识别那个人的能力,使得它对于任何想要利用它的公司或政府来说几乎毫无用处。
Fawkes并不是一个简单的图像操纵器,而是一个更复杂的人工智能驱动的应用,它会产生一些无法被目标面部识别训练系统检测到的变化,这意味着它们将无法识别并移除那些有害的“有毒”图像。研究人员称,由于无法分辨出哪些图像被隐藏了,这些公司将不得不投入相当大的精力,对收集到的所有内容进行分类以找到导致图像失真的图像。
根据这项研究,对人工智能的测试显示了非常高的准确率。