Press "Enter" to skip to content

9 search results for "欧盟AI法案"

评估大型语言模型的质量和责任

与生成性人工智能相关的风险已经广为人知毒性、偏见、泄漏个人身份信息以及幻觉都会对组织的声誉和客户信任造成负面影响研究表明,不仅偏见和毒性风险会从预训练的基础模型转移到特定任务的生成性人工智能服务中,而且通过为特定任务调整基础模型还会产生如下影响[…]

Leave a Comment

使用Amazon SageMaker Clarify和MLOps服務,以大規模操作化LLM評估

在过去的几年中,大型语言模型(LLMs)因其杰出的能力而崭露头角,能够以前所未有的熟练度理解、生成和操纵文本它们的潜在应用领域从对话代理人到内容生成和信息检索,承诺着彻底改变所有行业然而,在确保负责任和…

Leave a Comment

伦理与社会通讯第5期:“拥抱脸”走进华盛顿及其他2023年夏日的思考

关于AI中“伦理”最重要的一点是它与价值观有关。伦理不告诉你什么是对的或错的,它提供了一个价值观的词汇表,透明度、安全性、公正性,并提供了优先考虑它们的框架。今年夏天,我们能够将我们对AI中的价值观的理解带给欧盟、英国和美国的立法者,帮助塑造AI监管的未来。这就是伦理的闪光之处:在还没有法律制定的情况下帮助开辟前进道路。 符合Hugging Face对开放和问责的核心价值观,我们在这里分享了我们所说和所做的一些内容。其中包括我们CEO克莱姆在美国国会作证和美国参议院AI洞察论坛上的发言;我们对欧盟AI法案的建议;我们对NTIA关于AI问责的意见;以及我们首席伦理科学家梅格在民主党代表团的意见。在许多这些讨论中,经常出现的问题是为什么AI中的开放性是有益的,我们在这里分享了我们对这个问题的回答的一些内容here。 顺应我们的核心价值观民主化,我们也花了很多时间公开演讲,并有幸与记者进行交流,以帮助解释目前AI领域的情况。这包括: 莎夏在AI的能源使用和碳排放方面的评论(The Atlantic,The Guardian,两次,New Scientist,The Weather Network,华尔街日报,两次),以及参与了华尔街日报关于这一主题的发表的一部分;对AI末日风险的看法(Bloomberg,The Times,Futurism,Sky News);关于生成AI中的偏见的详细信息(Bloomberg,NBC,Vox);解释边缘化工人如何为AI创建数据(The Globe and Mail,The Atlantic);强调AI中的性别歧视(VICE);以及在MIT Technology Review上就AI文本检测、开放模型发布和AI透明度发表见解。 内森就语言模型和开放发佈的最新进展发表评论(WIRED,VentureBeat,Business Insider,Fortune)。 梅格就AI和虚假信息发表评论(CNN,半岛电视台,纽约时报);关于在AI中公平处理艺术家作品的需要(华盛顿邮报);生成AI的进展及其与更大利益的关系(华盛顿邮报,VentureBeat);通过报告解释记者如何更好地塑造AI的发展(CJR);以及解释AI中的基本统计概念困惑度(Ars Technica);并强调性别歧视的模式(Fast Company)。 艾琳就理解AI的监管环境发表评论(MIT Technology…

Leave a Comment

OpenRAIL 朝着开放和负责任的人工智能许可框架迈进

开放和负责任的人工智能许可证(”OpenRAIL”)是一种专门针对人工智能制品的许可证,允许开放访问、使用和分发人工智能制品,同时要求对其负责任使用。OpenRAIL许可证可以成为开放和负责任的机器学习领域的普遍社区许可工具,就像当前的开源软件许可证对代码和知识共享许可证对通用内容一样。 机器学习和其他人工智能相关领域的进展在过去几年中蓬勃发展,部分得益于信息和通信技术(ICT)领域普遍存在的开源文化,该文化已经渗透到机器学习研究和开发的动态中。尽管开放性对于创新是一个核心价值观的益处不言而喻,但与机器学习模型的开发和使用相关的伦理和社会经济问题的最近事件传达了一个明确的信息:开放还不够。然而,封闭的系统也不是答案,因为问题依然存在于公司私有的人工智能开发过程的不透明性之下。 开源许可证并不适用于所有情况 对机器学习模型的访问、开发和使用受到开源许可方案的极大影响。例如,当机器学习开发人员通过附加官方开源许可证或其他开源软件或内容许可证(如知识共享许可证)来公开权重时,他们可能会非正式地称之为“开源模型”。这引发了一个问题:为什么他们这样做?机器学习制品和源代码真的如此相似吗?从技术角度来看,它们是否共享足够的内容,使得为源代码设计的私有治理机制(例如开源许可证)也应该治理机器学习模型的开发和使用? 大多数当前的模型开发者似乎是这么认为的,因为大多数公开发布的模型都有一个开源许可证(例如Apache 2.0)。例如,可以参考Hugging Face模型中心和Muñoz Ferrandis & Duque Lizarralde (2022)。 然而,实证证据也告诉我们,对开源化和/或自由软件动态的刚性方法以及对ML制品发布的自由0的公理信仰正在在ML模型的使用中产生社会伦理上的扭曲(见Widder等人(2022))。简而言之,开源许可证不考虑模型作为一个不同于软件/源代码的技术性质和能力的事物,因此无法适应对ML模型的更负责任的使用(例如开源定义的第6个标准),参见Widder等人(2022);Moran(2021);Contractor等人(2020)。 如果已经存在并且每天都在改进针对ML模型的文档、透明度和伦理使用的特定实践(例如模型卡片、评估基准),为什么开放许可实践也不应该根据ML模型的特定能力和挑战进行调整呢? 商业和政府的ML许可实践中也出现了类似的问题。用Bowe & Martin (2022)的话来说:“安德里尔工业的总法律顾问Babak Siavoshy问,为计算机视觉目标检测私下开发的AI算法应该适用于哪种类型的许可条款,并使其适应军事目标定位或威胁评估?商业软件许可证和标准DFARS数据权益条款都不能妥善回答这个问题,因为它们既无法保护开发者的利益,也无法使政府获得部署它的系统的洞察力以便负责任地使用。” 如果的确如此,即ML模型和软件/源代码是不同的制品,那为什么前者要在开源许可证下发布呢?答案很简单,开源许可证已经成为软件相关市场上代码共享的事实标准。这种“开源”方法在协作软件开发方面的应用已经渗透并影响了AI开发和许可实践,并带来了巨大的好处。开源和开放和负责任的人工智能许可证(”OpenRAIL”)可能是互补的倡议。 为什么我们不设计一套由开源等运动启发,以及以ML领域的基于证据的方法为基础的许可机制呢?事实上,已经有一套新的许可框架将成为开放和负责任的ML开发、使用和访问的工具:Open & Responsible AI Licenses(OpenRAIL)。…

Leave a Comment

Jonathan Dambrot,Cranium AI的首席执行官和联合创始人 – 采访系列

Jonathan Dambrot是Cranium AI的首席执行官兼联合创始人,Cranium AI是一家帮助网络安全和数据科学团队了解人工智能在他们的系统、数据或服务中的影响的企业Jonathan曾是KPMG的合伙人、网络安全行业领袖和远见者在加入KPMG之前,他曾带领Prevalent成为Gartner和Forrester行业的一员[…]

Leave a Comment

John Isaza律师,FAI:关于AI和ChatGPT的法律环境导航

我们感谢 Rimon Law 的合伙人、FAI 律师 John Isaza 分享他的故事和有价值的见解,包括不断变化的法律环境、隐私保护与创新之间微妙的平衡以及在整合 AI 工具时产生的独特法律影响John 在 AI 相关的挑战和考虑方面提供了有价值的观点……John Isaza, Esq., FAI 谈论 AI 和 ChatGPT 的法律环境阅读更多»

Leave a Comment

Can't find what you're looking for? Try refining your search: