Press "Enter" to skip to content

能够知道自己运作情况的概率型人工智能

现在比以往任何时候都更重要的是,人工智能需要估计它解释数据的准确度

Photo: Olivier Le Moal / iStock

尽管人工智能系统规模庞大、威力强大,但它们仍然经常无法区分幻觉和现实。自动驾驶系统可能无法察觉就在它们前面的行人和紧急车辆,导致致命后果。对话式人工智能系统会自信地虚构出事实,而在强化学习训练后,往往无法给出准确的不确定性估计。

麻省理工学院和加州大学伯克利分校的研究人员共同开发了一种建立复杂人工智能推理算法的新方法,该方法同时生成数据的可能解释集合,并准确估计这些解释的质量。

这种新方法基于一种称为顺序蒙特卡罗(SMC)的数学方法。SMC算法是一组已经被广泛用于不确定性校准的人工智能算法,它通过提出数据的可能解释并跟踪给定更多信息时这些解释的可能性或不可能性来实现。但是,SMC对于复杂任务来说过于简单。主要问题在于算法的其中一个中心步骤——确切提出可能解释的猜测(在跟踪不同假设相对于彼此的可能性之前)——必须非常简单。在复杂的应用领域中,从数据中观察并提出可能解释可以是一个具有挑战性的问题。例如,在自动驾驶中,这需要查看自动驾驶汽车摄像头的视频数据,识别路上的汽车和行人,并猜测当前被遮挡的行人的可能运动路径。从原始数据中得出合理的猜测可能需要复杂的算法,而常规的SMC无法支持这些算法。

这就是新方法SMC和概率程序提案(SMCP3)发挥作用的地方。SMCP3使得可以使用更智能的方法猜测数据的可能解释,根据新信息更新这些提出的解释,并以复杂的方式估计这些解释的质量。SMCP3通过使任何概率程序(任何计算机程序也可以进行随机选择)作为提出(即智能猜测)数据解释的策略,使得这一切成为可能。SMC的以前版本仅允许使用非常简单的策略,以至于可以计算出任何猜测的确切概率。这种限制使得使用具有多个阶段的猜测程序变得困难。

研究人员的SMCP3论文表明,通过使用更复杂的提案程序,SMCP3可以提高人工智能系统跟踪3D对象和分析数据的准确性,同时提高算法自己对数据可能性的估计的准确性。麻省理工学院和其他机构的早期研究表明,这些估计可以用于推断一个推理算法相对于理想的贝叶斯推理者解释数据的准确性。

该论文的合著者之一George Matheos(麻省理工学院电气工程和计算机科学[EECS]博士研究生)表示,他最激动人心的是SMCP3在实践中的潜力,可以在旧版SMC无法工作的复杂问题环境中使用理解良好、不确定性校准的算法。

“今天,我们有很多新算法,很多是基于深度神经网络的,在各种问题领域中可以提出在数据的情况下可能发生的事情。但是,这些算法通常并不真正进行不确定性校准。它们只输出一种可能发生的事情的想法,而不清楚这是否是唯一可能的解释,或者是否存在其他解释——甚至是否是首先能够解释的好方法! 但是,通过SMCP3,我认为将有可能使用更多这样的智能但难以信任的算法来构建不确定性校准的算法。随着我们在生活的越来越多领域中使用“人工智能”系统做出决策,对于可靠性和安全性至关重要的是拥有我们可以信任的系统,这些系统知道自己的不确定性。”

本文的高级作者Vikash Mansinghka补充说:“第一台电子计算机是用来运行蒙特卡罗方法的,它们是计算和人工智能中最广泛使用的技术之一。但是自从开始,蒙特卡罗方法就很难设计和实现:数学必须手动导出,并且有很多微妙的数学限制需要用户注意。SMCP3同时自动化了难以处理的数学,并扩展了设计空间。我们已经使用它来考虑我们以前无法设计的新人工智能算法。”

该论文的其他作者包括共同第一作者Alex Lew(麻省理工学院EECS博士研究生);麻省理工学院EECS博士研究生Nishad Gothoskar、Matin Ghavamizadeh和Tan Zhi-Xuan;以及加州大学伯克利分校教授Stuart Russell。该工作于4月在西班牙瓦伦西亚举行的AISTATS会议上展示。

Leave a Reply

Your email address will not be published. Required fields are marked *