物理科技生物学-PHYICA

计算机科学家首次展示,深伪探测器可以兔子的图片大全可爱被击败

科学新闻 2021-09-24 22:00:04

face Credit:在2021年1月5日至9日在线举行的WACV 2021大会上,计算机科学家首次展示了旨在检测深度假货的CC0公共领域系统——通过人工智能操纵现实生活中的foo tage的视频——可能会被欺骗。研究人员表示,通过在每一个视频帧中插入被称为对抗性例子的输入,可以击败检测器。敌对的例子是轻微操纵的输入,导致人工智能系统如机器学习模型出错。此外,该团队还表明,视频压缩后,攻击仍然有效。

“我们的工作表明,对deepfake探测器的攻击可能是现实世界的威胁,”加州大学圣地亚哥分校计算机工程博士学生、WACV论文的第一位合著者Shehzeen Hussain说。“更令人担忧的是,我们证明,即使对手可能不知道检测器使用的机器学习模型的内部工作原理,也有可能制造出强大的对抗性深度伪装。”

在deepfakes中,一个对象的脸被修改,以便创建令人信服的真实镜头,记录从未真正发生过的事件。因此,典型的deepfake检测器关注视频中的人脸:首先跟踪它,然后将裁剪后的人脸数据传递给神经网络,以确定它是真的还是假的。例如,眨眼在深度假货中不能很好地重现,因此检测器会关注眼球运动,以此作为做出判断的一种方式。最先进的Deepfake检测器依靠机器学习模型来识别假视频。

研究人员指出,虚假视频在社交媒体平台上的广泛传播引起了全球的极大关注,尤其是损害了数字媒体的可信度。该论文的另一位第一合著者、加州大学圣地亚哥分校计算机科学专业的学生帕思·尼卡拉(Paarth Neekhara)说:“如果攻击者对检测系统有所了解,他们可以设计输入来瞄准检测器的盲点并绕过它。

研究人员为视频帧中的每一张脸创建了一个对抗性的例子。但是,虽然压缩和调整视频大小等标准操作通常会从图像中删除敌对的示例,但这些示例是为了承受这些过程而构建的。攻击算法通过在一组输入变换上估计模型如何对图像进行真假排序来做到这一点。从那里,它使用这种估计来变换图像,使得敌对图像即使在压缩和解压缩之后也保持有效。

来源:由phyica.com整理转载自PH,转载请保留出处和链接!

本文链接:http://www.phyica.com/kexuexinwen/623.html

发表评论

用户头像 游客
此处应有掌声~

评论列表

还没有评论,快来说点什么吧~