Press "Enter" to skip to content

研究人员研究张量网络以解释性和高效的量子启发机器学习

计算机视觉、自然语言处理和其他领域在深度机器学习(ML)方法方面取得了显著的成功,这些方法基于深度神经网络(NNs)。然而,解释性与效率之间长期存在的问题带来了一些难以克服的障碍。对深度ML方法的质疑、理解和信任能力取决于它们的可解释性,通常被描述为一个人能够理解结论来源的程度。

贝叶斯网络、Boltzmann机器和其他概率ML模型被认为是“白箱”,因为它们本质上是可解释的。这些模型宣称的一种解释方式是通过使用概率推理来揭示隐藏的因果联系;这与人类思维在统计上的方式一致。遗憾的是,最先进的深度NNs在效率上超过了这些概率模型相当大的幅度。目前的ML模型似乎无法同时实现高效性和可解释性。

由于量子计算和传统计算的指数增长,解决效率与可解释性困境的新工具出现了:张量网络(TN)。多个张量的收缩被称为TN。张量的收缩方式由其网络结构定义。

中国首都师范大学和中国科学院大学的一篇新论文调查了TN在高效和可解释的量子启发式ML方面的有益发展。”TN ML butterfly”列举了TN对ML的好处。对于具有量子扭曲的ML的TN的好处可以归结为两个主要领域:量子理论的可解释性和量子过程的高效性。使用TN与如纠缠理论和统计学等量子理论构建超越描述经典信息或统计方法的可解释性的概率框架。

相反,量子启发的TN ML方法将能够通过强大的量子力学TN算法和大幅改进的量子计算技术在经典和量子计算平台上高效运行。特别是,最近产生了具有开发潜力和挑战的生成预训练变换器,导致了前所未有的计算能力和模型复杂性的激增,这对TN ML而言既具有潜力又具有挑战。面对产生预训练变换器的新人工智能(AI),解读结果的能力比以往任何时候都更为重要,从而实现更有效的调查、更安全的控制和更好的利用。

研究人员认为,随着我们进入真正的量子计算和当前的NISQ时代,TN迅速成为从各个角度研究量子人工智能的领先数学工具,包括理论、模型、算法、软件、硬件和应用。

研究人员研究了张量网络用于可解释和高效的量子启发式机器学习文章首次出现于MarkTechPost

Leave a Reply

Your email address will not be published. Required fields are marked *