麻省理工学院的史蒂夫·纳迪斯 一个具有完整晶体对称性的神经网络能够有效地训练晶体固体
学分:麻省理工学院 在2020年9月《自然能源》的一篇文章中,三位科学家提出了几个“重大挑战”——其中之一是找到合适的热能储存设备材料,可以与太阳能系统配合使用
幸运的是,李明达——诺曼第人
麻省理工学院核科学与工程助理教授拉斯姆森是该系量子物质小组的负责人,他已经在思考类似的问题
事实上,李和九个合作者(来自麻省理工学院、劳伦斯伯克利国家实验室和阿尔贡国家实验室)正在开发一种新的方法,包括一种新的机器学习方法,这种方法可以更快、更容易地识别出具有良好热能储存和其他用途的材料
他们的调查结果出现在本月《高级科学》的一篇论文中
“这是一种革命性的方法,有望加速新功能材料的设计,”物理学家海梅·费尔南德斯·巴卡评论道,他是橡树岭国家实验室的杰出工作人员
李和他的合著者写道,材料科学的一个核心挑战是“建立结构-性质关系”——找出具有给定原子结构的材料的特征
李的团队特别专注于使用结构知识来预测“声子态密度”,这对热性质有重要影响
要理解这个术语,最好从声子这个词开始
“晶体材料是由排列成晶格结构的原子组成的,”博士尼娜·安德烈耶维奇解释说
D
材料科学与工程学生
“我们可以把这些原子想象成由弹簧连接的球体,热能使弹簧振动
这些振动只出现在离散的[量子化的]频率或能量上,我们称之为声子
" 状态的声子密度只是在给定频率或能量范围内发现的振动模式或声子的数量
知道了声子态密度,我们就可以确定一种材料的热容和导热率,导热率与热量通过材料的难易程度有关,甚至与超导体的超导转变温度有关
“为了储存热能,你需要一种比热高的材料,这意味着它可以吸收热量而不会急剧升温,”李说
“你还需要一种导热率低的材料,这样它能保持更长时间的热量
" 然而,声子态密度是一个很难用实验测量或理论计算的术语
“像这样的测量,你必须去国家实验室使用一个大约10米长的大型仪器,以便获得你需要的能量分辨率,”李说
“那是因为我们寻找的信号非常微弱
" “如果你想计算声子态密度,最精确的方法是依靠密度泛函微扰理论(),”机械工程博士陈指出
D
学生
“但这些计算是根据晶体基本结构单元中原子数量的四阶来进行的,这可能需要在一个中央处理器集群上花费数天的计算时间
“对于含有两种或两种以上元素的合金,计算变得更加困难,可能需要数周甚至更长时间
李说,这种新方法可以将电脑上的计算时间减少到几秒钟
他的团队采用了一种神经网络方法,利用人工智能算法使计算机能够从例子中学习,而不是试图根据第一原理计算状态的声子密度,这显然是一项费力的任务
这个想法是给神经网络提供足够的关于材料的原子结构及其相关的声子态密度的数据,这样网络就可以辨别出连接两者的关键模式
经过这种方式的“训练”,该网络有望对具有给定原子结构的物质做出可靠的状态密度预测
李解释说,预测是困难的,因为状态的声子密度不能用一个单一的数字来描述,而是用一条曲线来描述(类似于发光物体在不同波长发出的光谱)
“另一个挑战是,我们只有大约1500种材料的可靠的[状态密度]数据
当我们第一次尝试机器学习时,数据集太小,无法支持准确的预测
" 他的团队随后与劳伦斯·伯克利的物理学家苔丝·斯米特合作,她是所谓的欧几里德神经网络的共同发明者
“训练一个传统的神经网络通常需要包含几十万到几百万个例子的数据集,”斯米特说
这种数据需求的一个重要部分源于这样一个事实,即传统的神经网络不理解3D模式和相同模式的旋转版本是相关的,并且实际上代表相同的事物
在它能够识别3D模式——在这种情况下,晶体中原子的精确几何排列——之前,传统的神经网络首先需要在数百个不同的方向上显示相同的模式
“因为欧几里德神经网络理解几何——并认识到旋转模式仍然‘意味着’同样的事情——他们可以从单个样本中提取最大数量的信息,”斯米特补充说
结果,在1500个例子上训练的欧几里德神经网络可以优于在500倍以上数据上训练的传统神经网络
利用欧几里德神经网络,研究小组预测了4346种晶体结构的声子态密度
然后,他们选择了20种热容量最高的材料,将预测的状态密度值与通过耗时的DFPT计算获得的值进行比较
协议非常接近
李说,这种方法可以用来挑选有前途的热能储存材料,以应对上述“重大挑战”
“但它也可以极大地促进合金设计,因为我们现在可以像确定晶体一样容易地确定合金的状态密度
这反过来为我们可以考虑用于储热的材料以及许多其他应用提供了巨大的扩展
" 事实上,一些应用已经开始
麻省理工学院团队的计算机代码已经安装在橡树岭的机器上,使研究人员能够根据给定材料的原子结构预测其状态的声子密度
此外,安德烈耶维奇指出,欧几里德神经网络具有更广泛的潜力,但尚未开发
“它们可以帮助我们找出除了声子态密度之外的重要材料特性
所以这可能会在很大程度上打开这个领域
"
来源:由phyica.com整理转载自PH,转载请保留出处和链接!