Press "Enter" to skip to content

EU对AI监管的初步协议:对ChatGPT的影响

欧洲联盟最近达成了一项初步协议,概述了对先进人工智能模型进行监管的法规,特别强调了广为认可的ChatGPT。这标志着建立全球首个全面人工智能监管的重要进展。

人工智能系统的透明度

为了增强透明度,通用人工智能系统的开发者,包括令人敬畏的ChatGPT,必须遵守基本要求。这些要求包括实施可接受使用政策,及时更新模型训练方法的信息,并提供详细的培训数据摘要。此外,还必须承诺尊重版权法。

对具有“系统风险”的模型的其他规定

被确定为具有“系统风险”的模型面临更严格的监管。这种风险的确定取决于在模型训练过程中使用的计算能力。值得注意的是,任何超过每秒10万亿次操作的模型,其中包括OpenAI的GPT-4,都属于此类别。欧盟的执行机构有权根据多种标准(如数据集大小、注册商业用户和最终用户)指定其他模型。

还有:惊人的消息:ChatGPT易受数据泄露攻击

对高度可行模型的行为准则

高度可行模型,包括ChatGPT,在欧洲委员会制定更全面和持久的控制措施之前,需要采取行为准则。如果不合规,就需要证明遵守人工智能法。需要注意的是,虽然开源模型可以豁免某些控制,但如果被认定存在系统风险,它们也不会免责。

对模型的严格义务

纳入监管框架的模型必须报告其能源消耗,进行红队或对抗性测试,评估和减轻潜在的系统风险,并报告任何事件。此外,它们还必须确保实施强大的网络安全控制、披露用于微调模型的信息,并在开发时遵守更节能的标准。

批准过程和关注点

欧洲议会和欧盟的27个成员国尚未批准这项初步协议。与此同时,法国和德国等国家提出了关切。这些担忧围绕着对欧洲人工智能竞争对手的压制风险,例如Mistral AI和Aleph Alpha等公司。法国和德国特别担心过多的监管会阻碍全球人工智能领域的创新和竞争力。

还有:欧洲人工智能巨头MISTRAL AI筹集了3.85亿欧元

我们的观点

在应对人工智能监管的复杂领域中,欧盟的做法寻求在促进创新和防范潜在风险之间取得微妙的平衡。随着提议等待批准,一些成员国提出了担忧。这凸显了在AI领域的监管程度上达成共识的挑战。在制定人工智能治理未来时,平衡AI开发者的愿望与社会安全的需要仍然是一项关键任务。

Leave a Reply

Your email address will not be published. Required fields are marked *