行业报告 AI展会 数据标注 标注供求
数据标注数据集
主页 > 人工智能 正文

为保证国家安全,Facebook利用AI模型来检测潜在的

所谓的“深度假视频”现在成为美国立法者担心的一个主要问题,他们担心AI伪造的政府人员视频可能成为国家安全威胁。

Facebook表示它已经建立了一个机器学习模型来检测潜在的虚假照片或视频,然后将这些模型发送给其事实检查员进行审查。第三方事实检查合作伙伴可以使用视觉验证技术,包括反向图像搜索和图像元数据分析来审查内容。

为保证国家安全,Facebook利用AI模型来检测潜在的虚假照片或视频

Facebook打算利用其收集的照片和视频评论者来提高其机器学习模型的准确性,以检测这些媒体格式的错误信息。

它定义了照片和视频中的三种错误信息,包括:操纵或制作的内容; 脱离背景呈现的内容; 文字或音频中的虚假声明。

Facebook提供了与文本相比识别图像和视频内容中的虚假信息的困难的高级概述,以及它用于克服它们的一些技术。但总体而言,人们的印象是,Facebook并没有接近自动系统来大规模检测视频和照片中的错误信息。

目前,它正在使用OCR从照片中提取文本,例如照片上的虚假标题,以便将文本与事实检查员文章的标题进行比较。它还在开发检测照片或视频是否被操纵的方法。为此,它使用音频转录来比较它从音频中提取的文本是否与事实检查者之前已经揭穿的文本中的声明匹配。

“目前,我们正在与照片上比我们使用的视频音频转录使用OCR更先进的,” 说的Facebook产品经理泰莎里昂。

与文章一样,一旦事实检查人员确认其为假,Facebook将专注于识别虚假视频和照片的重复。

Lyons表示,Facebook在寻找精确复制的照片方面“相当不错”,但是当图像被轻微操纵时,Facebook更难以自动检测。

“我们需要继续投资技术,这将有助于我们识别出以微小方式发生变化的非常接近的副本,”里昂斯说。

Lyons表示,检测某些东西是否脱离背景也是一项重大挑战。

“了解某些事情是否脱离了背景是我们正在投资的领域,但还有很多工作要做,因为你需要了解媒体的原始背景,媒体呈现的背景,以及是否两者之间存在差异,“她指出。

照片和视频内容中的错误信息的影响也因国家而异。Facebook已经发现,在美国,大多数人报告看到文章中的错误信息,而在印度尼西亚,人们更多地报告在照片中看到的误导信息。

“在媒体生态系统欠发达或识字率较低的国家,人们可能更有可能在照片上看到错误的标题,或看到伪造的照片,并将其解释为新闻,而在拥有强大新闻生态系统的国家,“新闻”的概念更多地与文章联系在一起,“里昂说。

微信公众号

声明:本站部分作品是由网友自主投稿和发布、编辑整理上传,对此类作品本站仅提供交流平台,转载的目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,不为其版权负责。如果您发现网站上有侵犯您的知识产权的作品,请与我们取得联系,我们会及时修改或删除。

网友评论:

发表评论
请自觉遵守互联网相关的政策法规,严禁发布色情、暴力、反动的言论。
评价:
表情:
用户名: 验证码:点击我更换图片
SEM推广服务

Copyright©2005-2028 Sykv.com 可思数据 版权所有    京ICP备14056871号

关于我们   免责声明   广告合作   版权声明   联系我们   原创投稿   网站地图  

可思数据 数据标注

扫码入群
扫码关注

微信公众号

返回顶部