物理科技生物学-PHYICA

人工智能实时模拟微处理器的性能

技术工程 2022-02-24 21:54:07

AI models microprocessor performance in real-time Credit:杜克大学杜克大学的计算机工程师开发了一种新的人工智能方法,可以精确地预测任何类型的计算机处理器每秒钟超过万亿次的功耗,同时几乎不使用任何计算能力。这项技术被称为阿波罗(APOLLO),已经在现实世界的高性能微处理器上得到验证,可以帮助提高效率,并为新微处理器的开发提供信息。在MICRO-54:第54届IEEE/ACM微体系结构国际年会上发表的一篇论文中详细介绍了这种方法,该会议是计算机体系结构的顶级会议之一,并被选为会议的最佳出版物。

“这是一个深入研究的问题,传统上依赖于额外的电路来解决,”该论文的第一作者、杜克大学电气与计算机工程教授陈实验室的博士生谢志尧说。“但我们的方法直接在后台的微处理器上运行,这就打开了许多新的机会。我想这就是人们对此感到兴奋的原因。”

在现代计算机处理器中,计算周期约为每秒3万亿次。跟踪如此快速的转换所消耗的功率对于保持整个芯片的性能和效率非常重要。如果处理器消耗太多功率,可能会过热并造成损坏。功率需求的突然波动会导致内部电磁问题,从而降低整个处理器的速度。

通过实现可以预测和阻止这些不良极端情况发生的软件,计算机工程师可以保护他们的硬件并提高其性能。但这样的计划是有代价的。跟上现代微处理器的步伐通常需要宝贵的额外硬件和计算能力。

“APOLLO接近一种理想的功率估计算法,该算法既精确又快速,并且可以很容易地在低功耗cos t下内置到处理内核中,”谢说。“因为它可以用于任何类型的处理单元,所以它可能会成为未来芯片设计中的常见组件。”

阿波罗(APOLLO)力量的秘密来自人工智能。谢和陈开发的算法使用人工智能来识别和选择处理器的数百万个信号中的100个,这些信号与处理器的功耗密切相关。然后,它根据这100个信号建立一个功耗模型,并对它们进行监控,以实时预测整个芯片的性能。

因为这种学习过程是自主的和数据驱动的,所以它可以在大多数任何计算机处理器架构上实现——即使是那些尚未发明的架构。虽然它不需要任何人类设计师的专业知识来完成它的工作,但该算法可以帮助人类设计师完成他们的工作。

“在AI选择了它的100个信号后,你可以看看算法,看看它们是什么,”谢说。“很多选择都有直观的意义,但即使没有,它们也可以通过告知设计人员哪些流程与功耗和性能最密切相关来为设计人员提供反馈。”

这项工作是与Arm Research合作的一部分,Arm Research是一家计算机工程研究组织,旨在分析影响行业的中断,并在部署前多年创建高级解决方案。在Arm Research的帮助下,APOLLO已经在当今一些性能最高的处理器上进行了验证。但据研究人员称,该算法在被商用计算机制造商采用之前,仍需要在更多平台上进行测试和综合评估。

“Arm Research与业内一些知名公司合作,并从它们那里获得资金,如英特尔和IBM,预测功耗是它们的主要优先事项之一,”陈说。“像这样的项目为我们的学生提供了一个与这些行业领导者合作的机会,这些类型的结果让他们想继续与杜克大学的毕业生合作并雇佣他们。”

来源:由phyica.com整理转载自PH,转载请保留出处和链接!

本文链接:http://www.phyica.com/jishugongcheng/11001.html

发表评论

用户头像 游客
此处应有掌声~

评论列表

还没有评论,快来说点什么吧~