艾伦·布雷特曼,西北太平洋国家实验室 PNNL的研究人员利用最近开发的超过500万个水簇最小值的数据库中的500,000个水簇来训练一个神经网络,该网络依赖于图论的数学能力r——代表分子结构的节点和链接的集合——来破译水分子聚集的结构模式
信用:内森·约翰逊| PNNL 机器学习算法,神经网络的基础,正在为新的发现打开大门——或者至少提供诱人的线索——一次一个大规模的数据库
一个恰当的例子:太平洋西北国家实验室(PNNL)的研究人员深入研究了水分子之间的相互作用模型,发现了关于氢键和结构模式的信息,同时利用——你猜对了——深度学习开辟了一条道路
“神经网络是计算机自动学习系统或数据不同属性的一种方式,”PNNL数据科学家詹娜·波普说
“在这种情况下,神经网络根据以前的数据学习不同水簇网络的能量
" PNNL的研究人员利用最近开发的超过500万个水簇最小值的数据库中的500,000个水簇来训练一个神经网络,该网络依赖于图论的数学能力r——代表分子结构的节点和链接的集合——来破译水分子聚集的结构模式
他们研究水的分子气态形式,特别注意氢键和相对于最稳定结构的能量之间的关系
“那是圣杯,”波普说
“现在,开发水的精确相互作用潜力需要很大的努力
但是对于神经网络来说,最终的目标是让网络从一个大的数据集中学习基于其潜在分子结构的网络的能量是多少
" 在估计了500,000个水簇后,PNNL领导的研究中的神经网络被训练成水分子之间相互作用的各种方式
理论上,数据集可能包括整个500万个水网络的数据库
但出于实际原因,它没有
波普说:“用整个数据库来训练神经网络会花费太多的计算时间。”
训练深层神经网络来检查这500,000个水簇——仅仅是整个数据库的十分之一——用了两天半多的时间,使用了四台具有相当大的图形处理单元性能的最先进的计算机,全天候工作
更大图景的一部分 神经网络已经存在了几十年
然而,在过去的10年里,图形处理器芯片的更大处理能力极大地提高了这些网络的能力,这也与“深度学习”这个短语有关
“即使有这样的希望,训练神经网络也是一项昂贵的计算挑战
尽管神经网络可能很精确,但它经常被批评为黑盒,不提供为什么给出答案的信息
美国
S
2016年,美国能源部(DOE)的数据库云服务器计算项目(ECP)启动,旨在探索最棘手的超级计算问题,包括神经网络的优化
2018年,ECP成立了中间件云服务器联合设计中心,专注于机器学习技术
PNNL是参与ExaLearn项目的八个国家实验室之一
詹姆斯·昂是PNNL物理和计算科学领域的首席计算科学家,他领导着实验室的参与
离家近的数据库 ExaLearn的主要目标之一是开发人工智能技术,通过从大量数据集中学习来设计新的化学结构
由PNNL计算机科学家苏塔奈·乔杜里领导的研究,利用了PNNL实验室研究员索蒂里斯·桑瑟斯在PNNL-里奇兰校区开发的海量水簇数据库
Xantheas在化学物理学中以其对含水离子簇中分子间相互作用的研究而闻名,他是神经网络研究的合著者,该研究发表在《化学物理学杂志》的特刊“机器学习与化学物理学相遇”上
“水的一些宏观性质被归因于它短暂的氢键网络,它由在室温下几分之一秒内断裂和重组的动态氢键网络组成,”赞泽斯说,他的数据库工作得到了美国能源部科学办公室、基础能源科学项目、化学科学、地球科学和生物科学部门的支持
“水簇通过理解不同氢键排列的结构-能量关系,为探测这种短暂的氢键网络提供了一个实验平台
" PNNL的研究人员有一个破解这个特殊黑盒的策略
他们使用图论——研究事物如何在网络中连接的数学分支——以图形形式表示分子及其多边形子结构
该团队设计的图论描述符为水团的构成提供了一些见解
“我们所做的,”波普说,“是在网络训练之后提供额外的分析
该分析量化了这些水团网络的不同结构特性
然后,我们可以将它们与我们预测的神经网络进行比较,并在随后的数据集检查中提高网络的理解
" 水有神经网络的未来 这项研究的发现为分析液态水和冰等更复杂的氢键网络中水簇的结构模式提供了基础
“如果你能训练一个神经网络,”波普说,“这个神经网络就能在更大的系统上进行计算化学
然后你可以在计算化学中对化学结构或氢键或分子对温度变化的反应做出类似的见解
这些都是这项研究的目标
"
来源:由phyica.com整理转载自PH,转载请保留出处和链接!