深层神经网络(DNNs)可以学会几乎任何东西,包括如何在我们擅长的比赛击败我们。问题是每次培训AI系统,都会占用昂贵的超级计算机或数据中心几天时间。 IBM的T.J. Watson研究中心的科学家们认为,他们可以大量使用“电阻处理单元”,即结合CPU和非易失性存储器的理论芯片,来减少马力和学习时间。此外,芯片能成倍加快数据传输速度,系统能完成所有的世界语言之间的语音识别和翻译。
问题是,为什么要花这么多的计算能力和时间来教AI?因为,像谷歌的DeepMind或IBM的Watson这样的现代神经网络必须并行地执行数十亿的任务。这需要调用大量的CPU内存,加起来迅速超千亿周期。研究人员曾提出,使用新的存储技术像电阻式RAM,可以永久存储数据,速度也与DRAM的一样的速度数据。最终,他们想出了新型芯片——电阻处理单元(RPU),即把大量的电阻式RAM直接放到CPU。
这种芯片能以最快的速度读取并同时处理数据,从而大大减少所需的神经网络训练时间和计算能力。 新闻报道:”相比于国家的最先进的微处理器,这种大规模并行架构RPU可实现3万倍加速,……以前需要在有数千台机器的数据中心培训几天,现在一个RPU加速器花上几个小时就能解决。”
科学家们认为,可能使用常规的CMOS技术来这样的芯片,但现在RPU仍处于研究阶段。此外,其技术的背后,如电阻式RAM,尚未实现商业化。然而,快速的本地内存芯片构建可以大大加快AI任务,如处理图像,掌握语言和大规模数据分析等。