物理科技生物学-PHYICA

Alexa Skills波多野结中文版在线看中的隐私问题和安全风险

科学新闻 2021-10-01 22:05:45

Privacy issues and security risks in Alexa SkillsChristopher Lentzsch与同事一起分析了亚马逊语音助手Alexa的额外功能。功劳:鲁尔大学波鸿有了语音命令“阿列克谢技能”,用户可以在他们的亚马逊语音助手上加载许多额外的功能。然而,来自鲁尔-波鸿大学(RUB)和北卡罗来纳州立大学的霍斯特·戈尔茨信息技术安全研究所的一个研究团队发现,这些技能通常会有安全漏洞和数据保护问题,还有一名前博士学生在项目期间开始为谷歌工作。他们将在2021年2月24日的网络和分布式系统安全研讨会(NDSS)会议上介绍他们的工作。分析了90,000多项技能

在他们的研究中,克里斯托弗·伦茨奇和马丁·德格林博士的研究小组首次研究了阿列克谢·技能的生态系统。这些语音命令不仅由美国科技公司亚马逊自己开发,也由外部提供商开发。用户可以直接在亚马逊运营的商店下载,有些情况下,还会被亚马逊自动激活。

研究人员从七个国家平台的商店获得并分析了90,194种技能。他们发现了安全使用的重大缺陷。“第一个问题是,自2017年以来,亚马逊已经部分自动激活了Skills。以前,用户必须同意使用每种技能。现在,他们几乎不知道Alexa给他们的答案来自哪里,以及最初是谁编写的,”来自系统安全RUB主席的马丁·德格林博士解释道。不幸的是,通常不清楚哪个技能在什么时间被激活。例如,如果你向Alexa寻求赞美,你可以从31个不同的提供者那里得到回应,但不会立即清楚哪一个是自动选择的。命令的技术实现所需的数据可能会无意中被转发给外部提供者。

以虚假身份发布新技能

“此外,我们能够证明《技能》可以用假身份出版。例如,知名汽车公司为其智能系统提供语音命令。用户下载这些,认为公司自己提供了这些技能。但情况并非总是如此,”马丁·德格林说。尽管亚马逊会检查认证过程中提供的所有技能,但这种所谓的技能蹲守,即采用已经存在的提供商名称和功能,通常并不明显。

“在一次实验中,我们能够以一家大公司的名义出版《技能》。来自用户的有价值的信息可以在这里挖掘,”研究人员解释道。因此,举例来说,如果一家汽车供应商还没有为其车内的智能系统开发出一种技能来调高或调低车内的音乐,攻击者将能够以供应商的名义这样做。“他们可以利用用户对这个知名名字和亚马逊的信任,来获取个人信息,如位置数据或用户行为,”德格林说。然而,在这个过程中,犯罪分子不能直接利用加密数据或恶意更改命令来操纵智能汽车,例如打开车门。

绕过亚马逊的安全检查

研究人员还发现了另一个安全风险:“我们的研究还表明,这些技能可能会在之后被提供者改变,”RUB信息和技术管理主席克里斯托弗·伦茨奇解释道。该漏洞将亚马逊之前认证过程的安全性置于另一个角度。“例如,攻击者可以在一段时间后重新编程他们的语音命令,以获取用户的信用卡数据,”伦茨奇说。亚马逊的测试通常会捕捉到这样的提示,并且不允许它们——之后更改程序的技巧可以绕过这种控制。通过信任被滥用的提供商名称和亚马逊,许多用户可能会被这个骗局所欺骗。

无效的数据保护声明

除了这些安全风险之外,研究团队还发现技能的一般数据保护声明存在重大缺陷。例如,只有24.2%的技能有所谓的隐私政策,在“孩子”和“健康和健身”等特别敏感的领域更少“尤其是在这里,应该会有很大的改善,”德格林说。

亚马逊已经向研究团队确认了一些问题,并表示正在研究对策。

来源:由phyica.com整理转载自PH,转载请保留出处和链接!

本文链接:http://www.phyica.com/kexuexinwen/1033.html

发表评论

用户头像 游客
此处应有掌声~

评论列表

还没有评论,快来说点什么吧~