IBM新的内存计算解决方案使商业AI培训变得更快、更容易
随着我们进入认知计算的新时代,并试图从越来越大的数据集收集信息,今天的许多计算机都没有经过优化来处理如此巨大的工作量。然而,由IBM科学家开发并发表在《自然电子》 (Nature Electronics)杂志上的一个新的混合概念可能会使运行分析和机器学习应用程序以及训练人工智能(AI)系统变得容易得多。
大多数计算机都是基于冯诺依曼架构设计的,这种架构要求数据在处理单元和存储单元之间传输。根据IBM Research周二发布的一篇博客文章,这是一个低效的过程。
IBM的新概念,称为混合精度内存计算,将冯诺依曼计算机与计算内存单元相结合。在这种设计中,计算存储单元执行大多数计算任务,而冯诺依曼计算机提高了手头解决方案的准确性。
正如我们的姊妹网站ZDNet指出的,这种方法可以为IBM提供硬件加速器解决方案,用于微软和谷歌一直在寻找的高性能和机器学习应用。
混合精度内存计算依赖于一种称为相变存储器(PCM)的设备,它可以被编程到一定的传导水平。ZDNet指出,PCM单元无需将数据传输到CPU或GPU即可处理大部分大容量数据处理,使得处理速度更快,能耗更低。
“这种计算可以部分通过使用计算内存来执行,而不会牺牲整体计算精度,这一事实为高效快速的大规模数据分析开辟了一条令人兴奋的新途径,”IBM研究员、该论文的合著者evangelos Elefter在帖子中写道。
他在:中写道,“这种方法克服了当今冯诺依曼架构的一个关键挑战,在这个架构中,海量数据传输已经成为最耗能的部分。”“这种解决方案需求量很大,因为如果我们想使用标准技术,分析我们生成的不断增长的数据集将会迅速将计算负载增加到数十亿倍。”
需要注意的是,这项研究还是新的,根据ZDNet的说法,IBM的原型内存芯片需要千兆字节的内存才能用于数据中心规模的应用,而不是目前的一兆字节。然而,根据ZDNet的说法,IBM计划通过构建更大的PCM设备阵列或同时运行多个PCM设备来实现这一目标。
郑重声明:本文版权归原作者所有。转载文章只是为了传播更多的信息。如果作者信息标注有误,请第一时间联系我们修改或删除。谢谢你。
标签: