Press "Enter" to skip to content

谷歌DeepMind提出了一个社会和伦理人工智能风险评估的人工智能框架

生成式人工智能系统在不同领域中越来越普遍,它们可以创建各种格式的内容。这些系统被应用于医学、新闻、政治和社交互动等多个领域,提供伴侣式的体验。通过使用自然语言输出,这些系统能够生成单一格式的信息,如文本或图形。为了使生成式人工智能系统更具适应性,目前有一个趋势是改进它们以支持额外的格式,如音频(包括语音和音乐)和视频。

生成式人工智能系统的广泛使用凸显了评估其部署所涉及潜在风险的重要性。随着这些技术变得越来越普遍并集成到各种应用中,人们对公共安全的担忧也日益增加。因此,评估生成式人工智能系统可能存在的潜在风险正在成为人工智能开发人员、决策者、监管机构和公民社会的优先事项。

这些系统的不断增长的使用凸显了评估实施生成式人工智能系统所涉及潜在危险的必要性。因此,评估生成式人工智能系统可能带来的潜在威胁对于人工智能开发人员、监管机构和公民社会而言变得越来越重要。具有可能传播虚假信息的人工智能的发展引发了关于这种技术会如何影响社会的道德问题。

因此,谷歌DeepMind的研究人员最近进行了一项研究,提供了一种全面评估人工智能系统在多个背景层面上的社会和道德风险的方法。DeepMind的框架系统地评估三个不同层次上的风险:系统的能力,人与技术的互动,以及它可能产生的更广泛的系统性影响。

研究人员强调,重要的是要认识到,即使是高度能力的系统,如果在特定背景下使用有问题,可能只会造成伤害。此外,该框架还考虑了人与人工智能系统的真实世界互动。这包括考虑诸如谁使用技术以及它是否按预期运行等因素。

最后,该框架检查了当广泛采用人工智能时可能出现的风险。这种评估考虑到技术对较大的社会系统和机构的影响。研究人员强调了确定人工智能的风险程度时上下文的重要性。该框架的每个层面都充满了上下文关注,强调了了解谁将使用人工智能以及为什么这一点的重要性。例如,即使一个人工智能系统能够产生事实准确的输出,用户对这些输出的解读和随后的传播可能在特定的上下文限制下产生意想不到的后果。

研究人员提供了一个以错误信息为重点的案例研究,以展示这种策略。评估包括评估人工智能系统的事实错误倾向,观察用户与系统的互动,并测量任何随后的后果,如错误信息的传播。模型行为与特定上下文中实际伤害的相互作用将产生可行的见解。

DeepMind的基于上下文的方法强调了超越孤立模型指标的重要性。它强调了在复杂的社会环境中评估人工智能系统如何运作的迫切需求。这种全面的评估对于发挥人工智能的好处并将相关风险降至最低至关重要。

Leave a Reply

Your email address will not be published. Required fields are marked *