Press "Enter" to skip to content

LLMs和内存绝对是你所需的一切:谷歌展示了内存增强的LLMs可以模拟任何图灵机

LLM研究的重大突破。

使用Midjourney创建

我最近开始了一个以人工智能为重点的教育性新闻通讯,已经有超过160,000名订阅者了。TheSequence是一个无废话(意思是没有炒作、没有新闻等)的以机器学习为导向的新闻通讯,阅读时间只需5分钟。目标是让您与机器学习项目、研究论文和概念保持最新。请尝试通过以下方式订阅:

TheSequence | Jesus Rodriguez | Substack

机器学习、人工智能和数据发展的最佳来源

thesequence.substack.com

大型语言模型(LLMs)继续一次又一次地推动计算模型的极限。它能走多远呢?最近由谷歌Brain和阿尔伯塔大学的AI研究人员发表的一篇研究论文表明它能走得非常远。大型语言模型(LLMs)和存储器的组合是否能模拟任何算法?大型语言模型(LLMs)和存储器的组合是否可以是图灵完备的?

在计算领域,图灵机的概念体现了通用计算机的思想-一台非凡的机器,能够模拟任何其他计算设备的执行。最近的研究探讨了大型语言模型(LLMs)和图灵机之间的复杂关系。这些研究探讨了在单个输入中表达计算的大部分LLMs是否具有固有的限制。为了解决这个问题,新的研究工作开始使用外部反馈循环来装备LLMs,即将模型的输出处理并作为输入再次反馈。这种方法提出了一个关键问题:将LLM与外部反馈循环结合仅仅提供了实用性,还是根本扩展了可以执行的计算的广度?

在他们的论文中,谷歌Brain和阿尔伯塔大学对此进行了深入研究。在这项工作中,他们巧妙地展示了通过将LLM与联想读写存储器相结合可以实现的计算普适性。该研究围绕着利用…

Leave a Reply

Your email address will not be published. Required fields are marked *