物理科技生物学-PHYICA

阻止“他们”监视你:新的人工智能可以阻止流氓麦克风

技术工程 2022-05-01 21:53:15

online adsCredit:Unsplash/CC0 Public Domain你有没有注意到跟你最近跟你的朋友和家人谈论过的事情非常接近的在线广告?今天,从我们的电话、手表、电视到语音助手,几乎所有东西都嵌入了麦克风,它们总是在听你说话。计算机不断使用神经网络和人工智能来处理你的语音,以获取关于你的信息。如果你想阻止这种事情发生,你该怎么做呢?过去,正如热门电视剧《美国人》中所描绘的那样,你会把音乐的音量开得很大,或者打开浴室的水。但是如果你不想在音乐中不断尖叫来交流呢?哥伦比亚工程研究人员开发了一种新系统,可以产生耳语般的安静声音,你可以在任何房间,任何情况下播放,以阻止智能设备监视你。它很容易在电脑和智能手机等硬件上实现,让人们有权保护自己的声音隐私。

计算机科学助理教授卡尔·冯德里克说:“实现这一目标的一个关键技术挑战是让所有的工作都足够快。“我们的算法能够在80%的情况下阻止流氓麦克风正确听到您的话语,是我们测试平台上最快、最准确的算法。即使我们对流氓麦克风一无所知,比如它的位置,甚至它上面运行的计算机软件,它也能工作。它基本上通过无线电伪装了一个人的声音,隐藏了这些监听系统,并且不会给房间里的人之间的对话带来不便。”

走在对话的前面

虽然该团队破坏自动语音识别系统的结果在理论上已经被认为在人工智能中是可能的,但在实际应用中足够快地实现它们仍然是一个主要的瓶颈。问题是,现在打断一个人讲话的声音——在这个特定的时刻——不是一秒钟后会打断讲话的声音。当人们说话时,他们的声音会随着他们说不同的单词和语速而不断变化。这些改变使得机器几乎不可能跟上人说话的快节奏。

“我们的算法能够通过预测一个人接下来将要说的话的特征来跟上,给它足够的时间来生成正确的耳语,”该研究的主要作者、Vondrick实验室的博士生Mia Chiquier说。“到目前为止,我们的方法适用于大多数英语词汇,我们计划将该算法应用于更多的语言,并最终使耳语听起来完全听不到。”

发起“预测性攻击”

研究人员需要设计一种算法,可以实时破坏神经网络,可以在说话时连续生成,并适用于语言中的大多数词汇。虽然早期的工作已经成功地解决了这三个要求中的至少一个,但是没有一个达到了所有三个要求。Chiquier的新算法使用了她所谓的“预测攻击”——一种可以破坏自动语音识别模型训练转录的任何单词的信号。此外,当无线播放攻击声音时,它们需要足够大,以干扰任何可能在远处的流氓“监听”麦克风。攻击声音需要与声音传播相同的距离。

研究人员的方法通过预测对信号或单词未来的攻击来实现实时性能,条件是输入两秒钟的语音。该团队对攻击进行了优化,使其音量接近正常的背景噪音,使房间里的人能够自然交谈,而不会被自动语音识别系统成功监控。该小组成功地证明了他们的方法在具有自然环境噪声和复杂场景几何形状的真实世界房间内有效。

伦理人工智能

“对于我们研究界的许多人来说,人工智能技术的伦理问题是一个至关重要的问题,但它似乎属于一个独立的思维过程。宾夕法尼亚大学计算机和信息科学教授、机器学习领域的首席研究员时剑波说:“这就好像我们太高兴了,我们终于制造出了一辆自动驾驶汽车,但却忘记了设计方向盘和刹车。”。“作为一个社区,我们需要从最早的研究设计阶段就‘有意识地’思考我们开发的人工智能技术对人类和社会的影响。Mia Chiqui er和Carl Vondrick的研究提出了一个问题“如何使用人工智能来保护我们免受人工智能的意外使用?”他们的工作让我们许多人朝着以下方向思考:不要问伦理人工智能能为我们做什么,而是问我们能为伦理人工智能做什么?一旦我们相信这个方向,伦理人工智能研究就变得有趣和有创造性。"

Chiquier将于2022年4月25日在国际学术代表会议上发表她的论文。

来源:由phyica.com整理转载自PH,转载请保留出处和链接!

本文链接:http://www.phyica.com/jishugongcheng/15477.html

发表评论

用户头像 游客
此处应有掌声~

评论列表

还没有评论,快来说点什么吧~