AI实时模拟微处理器性能
杜克大学的计算机工程师开发了一种新的人工智能方法,可以在几乎不使用任何计算能力的情况下,每秒准确预测任何类型计算机处理器的功耗超过一万亿次。该技术被称为APOLLO,已在现实世界的高性能微处理器上得到验证,可以帮助提高效率并为新微处理器的开发提供信息。
该方法在MICRO-54:第54届IEEE/ACM国际微体系结构研讨会(计算机体系结构的顶级会议之一)上发表的一篇论文中有详细介绍,并被选为会议的最佳出版物。
“这是一个深入研究的问题,传统上依赖于额外的电路来解决,”该论文的第一作者、博士生谢志耀说。杜克大学电气与计算机工程教授陈奕然实验室的候选人。“但我们的方法直接在后台的微处理器上运行,这开辟了许多新机会。我认为这就是人们对此感到兴奋的原因。”
在现代计算机处理器中,计算周期约为每秒3万亿次。跟踪这种极快转换所消耗的功率对于保持整个芯片的性能和效率非常重要。如果处理器消耗过多功率,它可能会过热并造成损坏。电源需求的突然波动可能会导致内部电磁并发症,从而降低整个处理器的速度。
通过实施可以预测和阻止这些不良极端情况发生的软件,计算机工程师可以保护他们的硬件并提高其性能。但这样的计划是有代价的。跟上现代微处理器的步伐通常需要宝贵的额外硬件和计算能力。
“APOLLO接近了一种理想的功率估计算法,它既准确又快速,并且可以轻松地以低功率成本内置到处理内核中,”谢说。“而且因为它可以用于任何类型的处理单元,所以它可能成为未来芯片设计中的通用组件。”
APOLLO强大的秘密来自于人工智能。谢和陈开发的算法使用人工智能来识别和选择处理器数百万个与其功耗最密切相关的信号中的100个。然后它根据这100个信号建立一个功耗模型并监控它们以实时预测整个芯片的性能。
因为这个学习过程是自主的和数据驱动的,所以它可以在大多数计算机处理器架构上实现——即使是那些尚未发明的。虽然它不需要任何人类设计师的专业知识来完成它的工作,但该算法可以帮助人类设计师完成他们的工作。
“在人工智能选择了它的100个信号后,你可以查看算法,看看它们是什么,”谢说。“很多选择都具有直观意义,但即使没有,他们也可以通过告知设计师哪些工艺与功耗和性能最密切相关来向设计人员提供反馈。”
这项工作是与ArmResearch合作的一部分,ArmResearch是一家计算机工程研究组织,旨在分析影响行业的中断并在部署前多年创建先进的解决方案。在ArmResearch的帮助下,APOLLO已经在当今一些性能最高的处理器上得到验证。但据研究人员称,该算法仍需要在更多平台上进行测试和综合评估,然后才能被商业计算机制造商采用。
“ArmResearch与一些业内知名公司合作并获得资金,例如英特尔和IBM,预测功耗是他们的主要优先事项之一,”陈补充道。“像这样的项目为我们的学生提供了与这些行业领导者合作的机会,这些结果让他们希望继续与杜克大学的毕业生合作并雇用他们。”
标签: