物理科技生物学-PHYICA

人工智能研究人员问:黑匣子里小日向みゆ发生了什么?

科学新闻 2021-09-24 21:58:13

AI researchers ask: What's going on inside the black box?研究人员可以训练类似人工大脑的神经网络来对图像进行分类,例如猫的图片。通过一系列经过处理的图像,科学家们可以找出图像的哪一部分——比如胡须——被用来识别它是一只猫。然而,当同样的技术应用于脱氧核糖核酸时,研究人员不确定序列的哪些部分对神经网络很重要。这个未知的决策过程被称为“黑箱”Credi t: Ben Wigler/CSHL,2021冷泉港实验室(CSHL)助理教授Peter Koo和合作者Matt Ploenzke报道了一种训练机器预测DNA序列功能的方法。他们使用了“神经网络”,一种典型的用于图像分类的人工智能。教神经网络预测短段脱氧核糖核酸的功能使其能够破译更大的模式。研究人员希望分析对发育和疾病至关重要的调节基因活性的更复杂的脱氧核糖核酸序列。机器学习研究人员可以训练一台类似大脑的“神经网络”计算机来识别物体,如猫或飞机,方法是向它显示每种物体的许多图像。测试训练的成功需要给机器看一张新的猫或飞机的照片,看它是否正确分类。但是,当研究人员将这项技术应用于分析脱氧核糖核酸模式时,他们遇到了一个问题。人类无法识别这些模式,所以他们可能无法判断计算机是否识别了正确的东西。神经网络独立于人类程序员进行学习和决策。研究人员称这一隐藏过程为“黑箱”。如果我们不知道盒子里发生了什么,就很难相信机器的输出。

Koo和他的团队将DNA(基因组)序列输入到一种叫做卷积神经网络(CNN)的特定神经网络中,这类似于动物大脑处理图像的方式。辜说:

“解释这些神经网络可能非常容易,因为它们只会指向,比如说,猫的胡须。所以这就是为什么是猫对飞机。在基因组学中,这并不那么简单,因为基因组序列并不具备人类真正理解这些神经网络所指向的任何模式的形式。”

发表在《自然机器智能》杂志上的辜的研究,介绍了一种新的方法,将重要的DNA模式教授到他的CNN的一层。这使得他的神经网络能够在数据的基础上识别更复杂的模式。辜的发现使人们有可能窥视黑匣子内部,并确定导致计算机决策过程的一些关键特征。

但是辜鸿铭在人工智能领域有一个更大的目标。有两种方法可以改善神经网络:可解释性和鲁棒性。可解释性是指人类破译机器为什么给出某种预测的能力。即使在数据中有微小的利害关系,也能给出答案的能力叫做稳健性。通常,研究人员会关注其中一个。辜说:

“我的研究试图将这两者联系起来,因为我不认为它们是独立的实体。我认为,如果我们的模型更加健壮,我们会获得更好的可解释性。”

辜鸿铭希望,如果一台机器能够找到与基因调控相关的健壮且可解释的DNA模式,将有助于遗传学家理解突变是如何影响癌症和其他疾病的。

来源:由phyica.com整理转载自PH,转载请保留出处和链接!

本文链接:http://www.phyica.com/kexuexinwen/618.html

发表评论

用户头像 游客
此处应有掌声~

评论列表

还没有评论,快来说点什么吧~