物理科技生物学-PHYICA

识别癌症的人工智能和人类专家会被篡改图像的攻击所欺骗

医学研究 2022-09-03 21:52:00

显示真实癌症阳性(左上)和癌症阴性(左下)病例的钼靶图像,其中癌组织由白斑表示

一个“生成性对抗网络”程序从癌症阳性图像中移除癌性区域,创建一个假阴性图像(右上),并将癌性区域插入到癌症阴性图像中,创建一个假阳性图像(右下)

信用:问

周等

纳特

通信

2021 评估医学图像的人工智能模型有可能加快和提高癌症诊断的准确性,但它们也可能容易受到网络攻击

在一项新的研究中,匹兹堡大学的研究人员模拟了一次伪造乳房x光照片的攻击,欺骗了人工智能乳腺癌诊断模型和人类乳腺成像放射科专家

这项研究发表在今天的《自然通讯》上,引起了人们对医学人工智能潜在安全问题的关注,该问题被称为“对抗性攻击”,试图改变图像或其他输入,使模型得出不正确的结论

资深作者山东吴博士说:“我们希望通过这项研究表明,这种类型的攻击是可能的,它可能导致AI模型做出错误的诊断——这是一个很大的患者安全问题。”

D

皮特大学放射学、生物医学信息学和生物工程副教授

“通过了解人工智能模型在医疗环境下对抗攻击下的行为,我们可以开始思考如何让这些模型更安全、更健壮

" 近年来,基于人工智能的癌症检测图像识别技术发展迅速,一些乳腺癌模型已经实现了U

S

美国食品药品监督管理局(食品和药物管理局)批准

据吴说,这些工具可以快速筛查乳房x线照片,并识别出最有可能癌变的图像,帮助放射科医生提高效率和准确性

但这些技术也面临着网络威胁的风险,比如对抗性攻击

此类攻击的潜在动机包括医疗保健提供商寻求增加收入的保险欺诈,或试图调整临床试验结果以利于自己的公司

对医学图像的对抗性攻击从改变人工智能决策但人眼无法察觉的微小操作,到针对图像敏感内容(如癌症区域)的更复杂版本——使它们更有可能愚弄人类

为了理解AI在这种更复杂的对抗攻击下会如何表现,吴和他的团队使用乳房x光照片来开发一种检测乳腺癌的模型

首先,研究人员训练了一种深度学习算法,以超过80%的准确率区分癌性和良性病例

接下来,他们开发了一种所谓的“生成性对抗网络”(GAN)——一种通过分别从阴性或阳性图像中插入或移除癌性区域来生成假图像的计算机程序,然后他们测试了该模型如何对这些对抗图像进行分类

在44幅由GAN制作成负面的正面图像中,42幅被模型分类为负面,在319幅制作成正面的负面图像中,209幅被分类为正面

总之,模型被69骗了

1%的假图像

在实验的第二部分,研究人员要求五名人类放射科医生区分乳房x光照片是真是假

专家们根据不同的人,准确地鉴定了这些图像的真实性,准确率在29%到71%之间

“某些欺骗人工智能的假图像很容易被放射科医生发现

然而,这项研究中的许多对抗性图像不仅愚弄了模型,还愚弄了有经验的人类读者,”吴说,他也是临床影像智能计算实验室和匹兹堡医学影像人工智能创新中心的主任

“如果这种攻击导致不正确的癌症诊断,可能对患者非常有害

" 据吴说,下一步是开发方法,使人工智能模型对对抗性攻击更加鲁棒

他解释说:“我们正在探索的一个方向是人工智能模型的‘对抗性训练’。”

“这包括预先生成对抗性图像,并告诉模型这些图像是被操纵的

" 随着人工智能被引入医疗基础设施的前景,吴说,网络安全教育也很重要,以确保医院技术系统和人员意识到潜在的威胁,并拥有保护患者数据和阻止恶意软件的技术解决方案

他补充说:“我们希望这项研究能让人们思考医疗AI模型的安全性,以及我们可以做些什么来抵御潜在的攻击,确保AI系统安全运行,以改善患者护理。”

其他参与这项研究的作者是周倩薇,博士

D

皮特和中国浙江工业大学;玛格丽塔·祖利,男

D

布朗温·奈尔

D

阿德里安·瓦戈,男

D

苏珊·汉纳姆,硕士

D

,杜曼·阿雷凡博士

D

,所有的皮特和UPMC;国源,男

D

皮特和中国广州第一人民医院;杨璐,男

D

皮特和重庆大学肿瘤医院

来源:由phyica.com整理转载自PH,转载请保留出处和链接!

本文链接:http://www.phyica.com/yixueyanjiu/22831.html

发表评论

用户头像 游客
此处应有掌声~

评论列表

还没有评论,快来说点什么吧~