研究面向能够推广、扩展和加速科学的AI模型
下周将标志着第11届国际学习表示会议(ICLR)的开始,会议将于5月1日至5日在卢旺达基加利举行。这将是首次在非洲举办的重要人工智能(AI)会议,也是自疫情开始以来的第一次线下活动。
来自世界各地的研究人员将聚集在一起,分享他们在深度学习领域的前沿工作,涵盖人工智能、统计学和数据科学等领域,以及机器视觉、游戏和机器人等应用。我们很自豪地作为钻石赞助商和多元包容倡导者支持这次会议。
DeepMind团队今年将展示23篇论文。以下是一些亮点:
通往AGI之路上的开放问题
最近的进展显示,AI在文本和图像方面表现出令人难以置信的性能,但还需要更多的研究来使系统能够在不同领域和规模上推广。这将是发展人工通用智能(AGI)作为我们日常生活中的一种变革性工具的关键一步。
我们提出了一种新的方法,模型通过同时解决两个问题来学习。通过训练模型同时从两个角度看待问题,它们学会了如何推理解决类似问题的任务,这对于推广是有益的。我们还通过将它们与乔姆斯基语言层次结构进行比较,探索了神经网络的泛化能力。通过在16个不同任务上对2200个模型进行严格测试,我们发现某些模型在泛化方面存在困难,并发现通过增加外部存储器来改善性能是至关重要的。
我们所面临的另一个挑战是如何在专家级别上在较长期任务上取得进展,其中奖励是少而稀疏的。我们开发了一种新方法和开源训练数据集,帮助模型学会以类似于人类的方式在长时间范围内进行探索。
创新方法
随着我们开发更高级的AI能力,我们必须确保当前的方法能够按预期并高效地在现实世界中工作。例如,虽然语言模型可以产生令人印象深刻的答案,但很多模型无法解释它们的回答。我们引入了一种使用语言模型解决多步推理问题的方法,通过利用其潜在的逻辑结构提供可以被人类理解和检查的解释。另一方面,对抗性攻击是一种通过推动AI模型生成错误或有害输出来探索其极限的方法。在对抗性示例上进行训练可以使模型对攻击更具鲁棒性,但可能会以性能在“正常”输入上的代价为代价。我们展示了通过添加适配器,我们可以创建允许我们在实时控制这种权衡的模型。
增强学习(RL)已经成功应用于一系列现实世界的挑战,但RL算法通常被设计成只能完成一项任务,并且在推广到新任务上遇到困难。我们提出了一种算法蒸馏的方法,通过训练一个转换器来模仿RL算法在不同任务上的学习历史,使单个模型能够有效地推广到新任务。RL模型还通过试错学习,这可能需要非常大量的数据和时间。我们用近80亿帧的数据训练了我们的模型Agent 57,在57个雅达利游戏中达到了人类水平的性能。我们分享了一种使用200倍少的经验进行这种训练的新方法,从而大大降低了计算和能源成本。
AI用于科学
AI是研究人员分析大量复杂数据并理解我们周围世界的强大工具。几篇论文展示了AI如何加速科学进展,以及科学如何推动AI。
从三维结构预测分子的性质对于药物发现至关重要。我们提出了一种去噪方法,在分子性质预测方面取得了新的最先进水平,可以进行大规模的预训练,并在不同的生物数据集上推广。我们还引入了一种新的转换器,仅使用原子位置数据就可以进行更准确的量子化学计算。
最后,通过FIGnet,我们从物理学中汲取灵感,对复杂形状之间的碰撞进行建模,例如茶壶或甜甜圈。这个模拟器在机器人、图形和机械设计等领域都可以应用。
请查看DeepMind在ICLR 2023上的完整论文列表和活动日程。