Press "Enter" to skip to content

节能人工智能:神经形态计算机的新时代黎明

人工智能(AI)迅速发展的领域以其表现而闻名,但也伴随着巨大的能源成本。德国埃尔朗根马克思·普朗克光学科学研究所的两位顶尖科学家提出了一种新颖的方法,旨在更高效地训练AI,可能彻底改变AI处理数据的方式。

当前的AI模型在训练过程中消耗大量能源。尽管准确的数据难以获取,但Statista的估计显示,GPT-3的训练大约需要1000兆瓦小时,相当于200个大型德国家庭的年度消耗量。虽然高能耗的训练使GPT-3能够对词序列进行预测,但共识是它并没有理解这些短语的内在含义。

神经形态计算:融合大脑与机器

传统的AI系统依赖于数字化的人工神经网络,而未来可能取决于神经形态计算。马克思·普朗克研究所的主任、埃尔朗根大学教授弗洛里安·马夸特解释了传统AI架构的缺点。

“处理器和存储之间的数据传输单独就消耗了大量能源,”马夸特强调,指出训练庞大神经网络时的低效之处。

神经形态计算借鉴了人脑的工作原理,可以并行处理数据,而不是顺序处理。本质上,大脑中的突触既是处理器又是存储器。目前正在探索利用光进行计算的光子电路等模仿这些特征的系统。

使用自学习物理机进行AI训练

马夸特与博士生维克多·洛佩斯-帕斯托尔合作,为神经形态计算机引入了一种创新的训练方法。他们的“自学习物理机”通过内在的物理过程优化其参数,使外部反馈变得多余。“不需要这种反馈使训练更加高效,”马夸特强调,表示这种方法可以节省能源和计算时间。

然而,这种突破性技术有一些特定要求。这个过程必须是可逆的,以确保最小能量损失,并且足够复杂或非线性。“只有非线性过程才能执行输入数据和结果之间的复杂转换,”马夸特指出,划分了线性和非线性操作之间的区别。

走向实际应用

这对二人的理论基础与实际应用相一致。他们与一个实验团队合作,正在推进一种利用叠加光波进行信息处理的光学神经形态计算机。他们的目标很明确:实现自学习物理机的概念。

“我们希望在三年内呈现出第一个自学习物理机,”马夸特预测,并指出这些未来的网络将处理更多数据,并使用比现代系统更大的数据集进行训练。考虑到对AI的需求日益增长和当前架构的内在低效性,朝着高效训练神经形态计算机的转变看似既不可避免又有前景。

用马夸特的话说,“我们相信自学习物理机在人工智能的持续演进中具有坚实的机会。”科学界和人工智能爱好者都怀着满腔期待,期待未来的发展。

Leave a Reply

Your email address will not be published. Required fields are marked *