美国部分创企携政府抵制AI换脸
[摘要] 部分初创企业、美国政府机构和学术界都在“deepfakes”AI换脸做斗争,他们担心被篡改的视频和照片会被用来扰乱明年的美国总统选举。
据外媒报道,部分初创企业、美国政府机构和学术界都在“deepfakes”AI换脸做斗争,他们担心被篡改的视频和照片会被用来扰乱明年的美国总统选举。
为了解决这个问题,美国学术界、政府机构和一些创企纷纷研究推出自己的图像、视频验证、标记技术,例如有的技术能在你拍摄照片或视频的时候自动添加时间、位置等信息,它们希望通过这些技术能够对抗AI换脸视频、图片带来的威胁。
据介绍,deepfakes是“AI换脸”技术的名称,起源于2017年,当时Reddit用户“deepfakes”第一次上传其制作的换脸视频。这项技术能够把照片和视频中的人脸替换成任何想要替换的人脸,且效果十分逼真,有些肉眼甚至难以分辨真假。
Truepic正在与高通公司合作,将其技术添加到手机硬件组件中。这项技术将在拍摄照片和视频时自动标记时间和位置等数据,以便日后进行验证。Truepic还提供了一个免费的应用程序,消费者可以用它在上拍摄经过验证的照片。
英国创企Serelay的创始人兼首席执行官Roy Azoulay表示,他们目标是创建一个类似于Twitter帐户验证的系统,然后将其应用于照片和视频,该公司也正在开发标记真实图片的方法。
“在你拍摄照片或视频时,Serelay可以捕获数据,例如相机与手机信号塔或卫星相对的位置”,该公司表示。它与使用该技术帮助验证损害索赔的保险公司建立了合作关系,但是它拒绝透露这些公司的名称。
此外,美国国防部正在研究一项名为forensic的图像鉴定技术,该技术可用于检测照片或视频在制作后是否被篡改。其技术原理是寻找图片和视频中的不一致性,作为图像是否被篡改的证据,例如不一致的光照、阴影和相机噪音等。
复杂的deepfakes检测还需要其他的验证方法,例如点捕捉法(point-of-capture)。专家们通过观察面部表情和头部运动的不一致性发现篡改的证据。然后,他们试图使这个过程自动化,这样计算机就可以自动检测图片或视频中的不一致。
forensic方法可以应用于几十年前的照片和视频,以及最近用智能手机或数码相机拍摄的照片和视频。相比之下,捕捉点法只适用于使用该技术拍摄的图像。
美国国防部国防高级研究计划署(DARPA)负责媒体取证项目的Matt Turek说,这两种策略都是解决deepfakes问题的必要手段。
“我认为没有一种单一的算法和技术能解决这一问题,可能需要一个整体的方案,”他说。
时间:2019-07-30 23:43 来源: 转发量:次
声明:本站部分作品是由网友自主投稿和发布、编辑整理上传,对此类作品本站仅提供交流平台,转载的目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,不为其版权负责。如果您发现网站上有侵犯您的知识产权的作品,请与我们取得联系,我们会及时修改或删除。
相关文章:
- [机器视觉]如何防止AI在自拍中识别出你的脸
- [机器视觉]以假乱真的AI换脸技术,真的毫无破绽吗?
- [机器视觉]凌华科技推出紧凑型SMARC AI模块 驱动工业边缘的
- [机器视觉]AI芯片加持,安防下一爆点:边缘计算
- [机器视觉]AI脸识别技术如何实现国家电网可视化智能安防监
- [机器视觉]VisionChina 2021,迎接新发展格局中的“新机遇”
- [机器视觉]加入视觉和AI后,工业机器人能否更好助力智能制造?
- [机器视觉]Allied Vision 与 Connect Tech 强强联合,简化 AI 视觉系
- [机器视觉]多地限用AI人脸识别,监管追上技术发展脚步
- [机器视觉]AI技术中最有商业想象空间的能力——人脸识别
相关推荐:
网友评论: