时间:2019-09-10 来源:互联网 浏览量:
随着人们对人工智能生成的“视频造假”(deepfake)的担忧日益加剧,一些科技界的顶尖人物最近提出了一个“以毒攻毒”的计划。
这些造假视频能让一个人说出他从未说过的话——在一些例子中,一些名人和政客的视频被造假,安上了他们从未说过的言论,而画面显得十分逼真。除了恶搞名人,这些视频还可以用来被传播假新闻。
2018年8月,美国国防部就已经通过一个名为Media Forensics 的计划研发出了第一批捕捉deepfake视频的工具。
“我们在当前GAN操纵的图像和视频中发现了微妙的线索,使我们能够检测到变化的存在。”Media Forensics项目负责人Matthew Turek表示。
如今,Facebook、微软(Microsoft)和Partnership on AI也与美国多所大学的研究人员合作,发起了“假视频检测挑战”(Deepfake Detection Challenge)。该挑战旨在创建此类视频的数据集,以在现实世界中更好地识别出此类假视频。
Facebook正在委托各方同意演员参与这项工作,并表示已拨出1000万美元用于相关研究和奖励。
Deepfakes自出现以来,在很短的时间内已经变得越来越逼真。而且,科技行业一直难以跟上其发展。
斯坦福等几所高校此前发布的一项研究甚至能篡改视频的语句,只要输入任意文本,就能让视频中的演讲者说出对应的话。尽管修改后的词语的发音和口型和之前完全不同,但几乎看不出修改痕迹。研究者经过调查发现,59.6% 的受试者认为被修改过的视频是真的。
通过与学术界合作,并创建一个高质量的数据集,Facebook希望利用人工智能行业的工具,迅速找到一个有效的解决方案。
Facebook邀请了康奈尔理工大学、麻省理工学院、牛津大学、加州大学伯克利分校、马里兰大学、College Park和纽约州立大学奥尔巴尼分校的学者来参与这项挑战。
Facebook首席技术官迈克•施罗德弗(Mike Schroephfer)在发表的一篇博客文章中写道:“Deepfake的技术,能够造出看起来十分真实的人工智能生成的视频,这对我们如何确定在线呈现的信息的合法性具有重大意义。’”
“不过,该行业并没有一个很好的数据集或基准来检测它们。我们希望在这一领域促进更多的研究和开发,并确保有更好的开源工具来检测Deepfakes。”
达特茅斯学院的数字取证专家Hany Farid认为,奇怪的头部动作、奇怪的眼睛颜色和其他面部因素等其他线索可以帮助确定视频是否被伪造。
此外,Facebook表示,它将不使用来自自己网站的用户数据来构建数据集。相反,它将使用“明确同意的参与者的数据”。
最终的数据集将在今年10月的国际计算机视觉会议上进行测试,然后在今年12月的神经信息处理系统会议上发布。
据Facebook说,重要的是这些数据集“可供社区免费使用”。
尽管近几个月来,许多人都试图找到检测Deepfakes的方法,但一个单一有效的解决方案尚未出现。
“自从摄影出现以来,人们就一直在试图操纵图像。但现在几乎任何人都有可能制造并向大众传播假视频。”
麻省理工学院电气工程与计算机科学教授、麻省理工学院智能探索项目(MIT Quest for Intelligence)负责人托拉尔巴(Antonio Torralba)在一份有关这一挑战的声明中说。
“这次比赛的目标是建立一个人工智能系统,能够检测出经过修改的图像中的细微缺陷,并揭露其不符合现实的虚假之处。”