Press "Enter" to skip to content

调控生成式人工智能

LLM与欧盟AI法案的合规情况如何?

作者提供的照片 - David. E. Sweenor

由于生成式人工智能(AI)仍然处于中心舞台上,人们越来越呼吁对这项技术进行监管,因为它可能会迅速对大量人口产生负面影响。这些影响可能会带来歧视、强化刻板印象、侵犯隐私、带有负面偏见并破坏基本人类价值观。

2023年6月,美国政府发布了一套自愿遵守的AI准则,其中包括Anthropic、Meta(Facebook)、Google、Amazon、OpenAI和Microsoft等几家知名公司[1]。这对美国来说是一个重要的步骤,但不幸的是,美国在AI监管方面一直落后于欧洲联盟。在我之前的博文《生成式AI伦理:在自主内容时代的关键考虑》中,我探讨了欧盟AI伦理框架,并提出了在使用大型语言模型(LLM)时实施该框架的一系列考虑。本文关注的是欧盟AI法案的草案,以及LLM对该草案立法的遵守情况。

欧盟AI法案

2023年6月,欧盟通过了世界上首个AI法规草案。在2019年批准的AI伦理框架的基础上,欧盟的优先目标是确保在欧盟使用的AI系统“安全、透明、可追溯、非歧视和环境友好”[2]。为避免不利后果,欧盟框架坚持要求人类参与AI系统。换句话说,公司不能简单地让AI和自动化自行运行。

该法案将AI分为三个不同的风险类别,取决于它们可能对人们造成的风险,每个风险级别都需要不同程度的监管。如果这个计划被接受,它将成为世界上第一个一套AI法规。欧盟确定的三个风险层次是:不可接受的风险、高风险和有限风险。

  1. 不可接受的风险:禁止使用对人类有害并对人类构成威胁的技术。此类例子可能包括对个人或某些弱势群体的认知影响;基于社会地位对人进行排名;大规模使用面部识别进行实时监视和远程身份识别。现在,我们都知道全球各国的军队都在专注于自主武器,但我岔开了话题。
  2. 高风险:对安全或基本权利和自由产生不利影响的AI系统被欧盟分为两个不同的类别。第一类是嵌入在零售产品中的AI,目前属于欧盟的产品安全法规范范围。这包括玩具、飞机、汽车、医疗设备、电梯等。第二类需要在欧盟数据库中注册。这包括生物识别技术、关键基础设施运营、培训和教育、与就业相关的活动、执法、边境管控和法律分析。
  3. 有限风险:至少,低风险系统必须符合透明度和开放性的标准,这将使人们有机会做出明智的决策。欧盟规定,用户在与AI进行交互时应该收到通知。他们还要求模型应该以不创造非法材料的方式创建。他们还要求模型制造商披露在培训过程中使用了哪些(如果有的话)受版权保护的材料。

欧盟AI法案接下来需要在成员国之间进行协商,以便对法律的最终形式进行投票。欧盟将目标定在2023年年底进行批准。

现在,让我们来看看当前的LLM如何遵守这个草案。

LLM遵守欧盟AI法案草案的情况

斯坦福大学基金会模型研究中心(CRFM)和人类中心人工智能研究所(HAI)的研究人员最近发表了一篇名为《基金会模型是否遵守欧盟AI法案草案?》的论文。他们从该法案中提取了二十二个要求,对其进行了分类,并为其中的十二个要求创建了一个5分制评分标准。所有的研究,包括标准、评分标准和得分,都可以在GitHub上以MIT许可证的形式获得。

研究小组将立法要求映射到表1.1中的类别中。需要注意的是,该小组仅评估了总共22个要求中的12个。最后,小组选择了最易于根据公开可用的数据和模型制造商提供的文档进行评估的12个要求。

表1.1:LLM合规表概要

来源:斯坦福CRFM和HAI评分卡。使用MIT许可证。

对于那些可能不知道的人来说,斯坦福团队还费尽心思地编目了一百多个LLM数据集、模型和应用程序,可以在他们的生态系统图表中找到。为了使事情可管理,研究人员根据他们的评分标准,分析了“10个基础模型提供商及其旗舰基础模型,以满足法案对基础模型的12个要求。”[3]

研究人员研究了OpenAI、Anthropic、Google、Meta、Stability.ai等模型。根据他们的分析,他们的研究得出了以下评分卡。

图1.2:评估基础模型提供商对欧盟AI法案草案的合规性

来源:斯坦福CRFM和HAI评分卡。使用MIT许可证。

总体而言,研究人员指出,在供应商之间,模型合规性存在相当大的差异(这只是22个要求中的12个),“一些供应商的得分低于25%(AI21 Labs、Aleph Alpha、Anthropic),目前只有一个供应商的得分至少达到75%(Hugging Face/BigScience)。”[4]

我鼓励您阅读完整的研究,但研究人员指出,所有供应商都有很大的改进空间。他们还确定了几个关键的“持续挑战”,包括:

版权问题不明确:大多数基础模型是在从互联网获取的数据上进行训练的,其中很大一部分可能受版权保护。然而,大多数提供商没有明确训练数据的版权状况。在考虑许可条款时,使用和复制受版权保护的数据的法律影响尚未明确定义,目前正处于活跃的诉讼中(请参见《华盛顿邮报》- AI从他们的工作中学到了东西。现在他们要求赔偿。《路透社》- 美国法官发现艺术家对AI公司的诉讼存在缺陷)。我们将看到这个问题如何在未来发展。

缺乏风险缓解披露:如前所述,AI有可能迅速对许多人产生负面影响,因此了解LLM的风险至关重要。然而,几乎所有基础模型提供商都忽略了草案中确定的风险披露。尽管许多提供商列出了风险,但很少有提供商详细说明他们采取了哪些措施来缓解确定的风险。虽然这不是一个生成性AI的案例,但最近有一起针对美国健康保险公司Cigna Healthcare的诉讼,指控他们使用AI来拒绝付款(Axios- AI诉讼蔓延到健康领域)。比尔·盖茨撰写了一篇标题为《AI的风险是真实的,但是可控的》的精彩文章,我鼓励您阅读。

评估和审计赤字:在评估基础模型的性能方面,特别是潜在的误用或模型的稳健性方面,缺乏一致的基准。美国的CHIPS和Science法案提出了一个要求,要求国家标准与技术研究院(NIST)为AI模型创建标准化评估。评估和监控模型的能力是我最近讨论的GenAIOps框架的重点。最终,我们将看到GenAIOps、DataOps和DevOps在一个共同的框架下合并,但我们还有很长的路要走。

不一致的能源消耗报告:我想我们中的许多人都经历了全球范围内的近期热浪。对于LLM,基础模型提供商在报告能源使用和相关排放方面存在很大的差异。事实上,研究人员引用了其他研究,该研究表明我们甚至不知道如何衡量和核算能源使用。Nnlabs.org报告了以下内容:“根据OpenAI的数据,GPT-2(拥有15亿个参数)需要355年的单处理器计算时间和消耗28,000千瓦时的能量来进行训练。相比之下,GPT-3(拥有1750亿个参数)需要355年的单处理器计算时间和消耗284,000千瓦时的能量来进行训练,这比GPT-2多10倍。BERT(拥有3.4亿个参数)需要在64个TPU上进行4天的训练,并消耗了1,536千瓦时的能量。”[5]

除了上述问题,当在组织中实施生成型人工智能时还有许多其他问题需要解决。

摘要

根据研究,生成型人工智能技术的提供者和采用者还有很长的路要走。立法者、系统设计师、政府和组织需要共同努力解决这些重要问题。作为起点,我们可以确保在设计、实施和使用人工智能系统时保持透明。对于受监管的行业来说,这可能是一个挑战,因为大型语言模型 (LLMs) 通常具有数十亿个参数。数十亿!有这么多因素,怎么能解释和透明呢?这些系统需要有明确、明确无误的文档,我们需要尊重知识产权。为了支持环境、社会和企业治理 (ESG),我们还需要设计一个标准化的框架来衡量和报告能源消耗。最重要的是,人工智能系统需要安全,尊重隐私,并维护人类的价值观。我们需要以人为中心的方式来对待人工智能。

如果你想了解更多关于人工智能的内容,可以在亚马逊上看我的书《人工智能:一个执行指南,让人工智能为您的业务工作》或在Google Play上听AI朗读的音频书。

[1] Shear, Michael D., Cecilia Kang, and David E. Sanger. 2023. “Pressured by Biden, A.I. Companies Agree to Guardrails on New Tools.” The New York Times, July 21, 2023, sec. U.S. https://www.nytimes.com/2023/07/21/us/politics/ai-regulation-biden.html.

[2] European Parliament. 2023. “EU AI Act: First Regulation on Artificial Intelligence | News | European Parliament.” www.europarl.europa.eu. August 6, 2023. https://www.europarl.europa.eu/news/en/headlines/society/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence.

[3] Bommasani, Rishi, Kevin Klyman, Daniel Zhang, and Percy Liang. 2023. “Stanford CRFM.” Crfm.stanford.edu. June 15, 2023. https://crfm.stanford.edu/2023/06/15/eu-ai-act.html.

[4] Bommasani, Rishi, Kevin Klyman, Daniel Zhang, and Percy Liang. 2023. “Stanford CRFM.” Crfm.stanford.edu. June 15, 2023. https://crfm.stanford.edu/2023/06/15/eu-ai-act.html.

[5] ai. 2023. “Power Requirements to Train Modern LLMs.” Nnlabs.org. March 5, 2023. https://www.nnlabs.org/power-requirements-of-large-language-models/.

Leave a Reply

Your email address will not be published. Required fields are marked *