Press "Enter" to skip to content

在人工智能领域要勇于创新,也意味着要从一开始就承担起责任

我们相信我们对AI的方法必须既大胆又负责任。对我们来说,这意味着以我们的AI原则为指导,以最大化对社会的积极贡献为目标,同时解决挑战。虽然两者之间存在自然的紧张关系,但我们相信可以——事实上是至关重要的——积极地拥抱这种紧张关系。从长远来看,要真正大胆,就必须从一开始就负责。

我们正在大胆地将AI应用于我们的开创性产品,这些产品被人们广泛使用,在我们为人们带来利益的科学进步中,并帮助解决社会问题。

在我们的产品中

AI已经应用于许多产品中,数百万(甚至数十亿)人已经在使用,例如Google Maps、Google Translate、Google Lens等。现在我们正在带来AI,以帮助人们用Bard点燃和辅助创造力,在工作区工具中提高生产力,并通过搜索产生体验彻底改变他们获取知识的方式。在Google Labs中可以找到几个其他早期的有用应用的例子和实验。

在帮助解决社会问题方面

我们正在应用AI来缓解和适应气候变化:通过提供关键的洪水预测——现在已覆盖20多个国家,在实时跟踪野火边界,并通过减少停车走停车来帮助减少碳排放。我们正在应用它来改善医疗保健——包括产妇保健、癌症治疗和结核病筛查。我们最近宣布了一个新的大型语言模型,可能是医生的有用工具:Med-PaLM。今年晚些时候,数据公共系统——一个组织来自数百个来源的数据,以便在许多国家解决从可持续性到医疗保健到就业和经济的主要社会挑战的方法将通过Bard访问,使其更有用。

在我们的领域定义研究中

AI正在帮助科学家在许多领域取得重大进展,从物理学、材料科学到医疗保健,这将使社会受益——以Google DeepMind的AlphaFold程序为例。AlphaFold可以准确预测2亿个蛋白质的三维形状,几乎是所有已知科学目录的蛋白质——这一成就在几周内为我们带来了近4亿年的研究进展。AI还推动着让全球信息对每个人都可访问的进展。例如,它使雄心勃勃的行动像我们的月球计划1000种语言倡议成为可能——我们在支持超过400种语言的通用语音模型的训练中取得了令人兴奋的进展,朝着我们的目标迈进。

挑战

虽然看到这些大胆的突破令人振奋,但我们知道AI仍然是一种新兴的技术——还有很多工作要做。承认AI有可能加剧现有的社会挑战——例如不公平的偏见——并且随着其变得越来越先进和新用途的出现,可能会带来新的挑战,正如我们自己的研究和其他人的研究所强调的那样。这就是为什么我们认为采取负责任的AI方法至关重要,以我们在2018年首次制定的AI原则为指导。每年,我们发布关于如何将我们的AI原则付诸实践的进展报告,深入探讨例子。这项工作正在继续,随着AI变得更加有能力,我们从用户和技术的新用途中学到的,我们会分享我们所学到的。

评估信息

对许多人来说,包括我们在内,一个热门话题是错误信息。生成式AI使创造新内容变得比以往任何时候都更容易,但它也提出了有关在线信息可信度的其他问题。这就是为什么我们正在继续开发并提供人们评估在线信息的工具。在未来几个月中,我们将在Google搜索中添加一个新的关于此图像工具。关于这个图像将提供有用的上下文,例如类似图像可能首次出现的时间和地点以及在其他地方在线上看到它的地方,包括新闻、事实核查和社交网站。今年晚些时候,关于这个图像将在Chrome和Google Lens中提供。

在人工智能领域要勇于创新,也意味着要从一开始就承担起责任 人工智能 第1张

AI原则的实践

当我们将我们的AI原则应用于我们的产品时,我们也开始看到在大胆和负责任方面存在潜在的紧张关系。例如,通用翻译器是一项实验性的AI视频配音服务,可以帮助专家翻译发言者的声音并匹配他们的嘴唇动作。这具有增加学习理解的巨大潜力;然而,我们知道它可能在不良行为者的手中造成风险,因此我们建立了服务的防护栏,以限制误用,并仅向授权合作伙伴提供。

我们履行人工智能原则的另一种方式是通过创新来应对不断出现的挑战。例如,我们是行业中最早使用LLMs自动化对抗测试的公司之一,这显著提高了测试的速度、质量和覆盖范围,使安全专家能够专注于更困难的案例。为了帮助解决误导信息的问题,我们将很快将新的水印、元数据和其他技术创新集成到我们最新的生成模型中。我们还在推进检测合成音频的工具方面——在我们的AudioLM工作中,我们训练了一个分类器,可以在我们自己的AudioLM模型中准确地检测到合成音频,准确率接近99%。

集体努力

我们知道,负责任地构建人工智能必须是一个集体的努力,涉及研究人员、社会科学家、行业专家、政府、创作者、出版商和在日常生活中使用人工智能的人们。

我们与其他人共享我们的创新,以增加影响力,例如,Perspective API最初由我们的Jigsaw研究人员开发,旨在减轻在线评论中发现的有害内容。我们现在将其应用于我们的大型语言模型(LLMs)-包括在I/O中提到的每个模型-学术研究人员使用它创建了一个行业标准的评估,被所有重要的LLMs使用,包括来自OpenAI和Anthropic的模型。

我们相信,每个人都从充满活力的网络生态系统中受益,无论是今天还是未来。为支持这一点,我们将与网络社区合作,探索让网络出版商有选择和控制自己的网络内容的方式。

人工智能是如此令人兴奋的一个关注领域的部分原因在于,其造福人民和整个社会的潜力是巨大而明显的,这也是开发和负责任使用它的必要性所在。随着人工智能的不断进步,很多事情都在发生变化和演变,越来越多的人体验、分享、开发和使用它。我们不断从我们的研究、经验、用户和更广泛的社区中学习,并将我们所学到的内容融入到我们的方法中。展望未来,我们可以实现很多,但我们必须一起做对。

我要感谢并认可我们的Responsible AI、Responsible Innovation、Google.org、Labs、Jigsaw、Google Research和Google DeepMind团队同事的鼓舞人心和复杂的工作。

Leave a Reply

Your email address will not be published. Required fields are marked *