Press "Enter" to skip to content

5 search results for "Giada"

伦理与社会通讯第5期:“拥抱脸”走进华盛顿及其他2023年夏日的思考

关于AI中“伦理”最重要的一点是它与价值观有关。伦理不告诉你什么是对的或错的,它提供了一个价值观的词汇表,透明度、安全性、公正性,并提供了优先考虑它们的框架。今年夏天,我们能够将我们对AI中的价值观的理解带给欧盟、英国和美国的立法者,帮助塑造AI监管的未来。这就是伦理的闪光之处:在还没有法律制定的情况下帮助开辟前进道路。 符合Hugging Face对开放和问责的核心价值观,我们在这里分享了我们所说和所做的一些内容。其中包括我们CEO克莱姆在美国国会作证和美国参议院AI洞察论坛上的发言;我们对欧盟AI法案的建议;我们对NTIA关于AI问责的意见;以及我们首席伦理科学家梅格在民主党代表团的意见。在许多这些讨论中,经常出现的问题是为什么AI中的开放性是有益的,我们在这里分享了我们对这个问题的回答的一些内容here。 顺应我们的核心价值观民主化,我们也花了很多时间公开演讲,并有幸与记者进行交流,以帮助解释目前AI领域的情况。这包括: 莎夏在AI的能源使用和碳排放方面的评论(The Atlantic,The Guardian,两次,New Scientist,The Weather Network,华尔街日报,两次),以及参与了华尔街日报关于这一主题的发表的一部分;对AI末日风险的看法(Bloomberg,The Times,Futurism,Sky News);关于生成AI中的偏见的详细信息(Bloomberg,NBC,Vox);解释边缘化工人如何为AI创建数据(The Globe and Mail,The Atlantic);强调AI中的性别歧视(VICE);以及在MIT Technology Review上就AI文本检测、开放模型发布和AI透明度发表见解。 内森就语言模型和开放发佈的最新进展发表评论(WIRED,VentureBeat,Business Insider,Fortune)。 梅格就AI和虚假信息发表评论(CNN,半岛电视台,纽约时报);关于在AI中公平处理艺术家作品的需要(华盛顿邮报);生成AI的进展及其与更大利益的关系(华盛顿邮报,VentureBeat);通过报告解释记者如何更好地塑造AI的发展(CJR);以及解释AI中的基本统计概念困惑度(Ars Technica);并强调性别歧视的模式(Fast Company)。 艾琳就理解AI的监管环境发表评论(MIT Technology…

Leave a Comment

愉快的一周年纪念日🤗,扩散器!

🤗 Diffusers很高兴庆祝其成立一周年!这是一个令人兴奋的一年,我们为自己取得的成就感到自豪和感激,这离不开我们的社区和开源贡献者们。去年,像DALL-E 2、Imagen和Stable Diffusion这样的文本到图像模型以其生成惊人逼真的图像能力吸引了世界的注意,引发了对生成式人工智能的巨大兴趣和发展。但是,使用这些强大模型的权限是有限的。 在Hugging Face,我们的使命是通过合作和互相帮助打造一个开放和道德的人工智能未来,以实现机器学习的民主化。这一使命激励我们创建了🤗 Diffusers库,以便每个人都可以通过它来进行实验、研究或者简单地玩转文本到图像模型。这就是为什么我们将该库设计为一个模块化的工具箱,让您可以自定义扩散模型的组件,或者直接使用它。 随着🤗 Diffusers迈入一岁,以下是我们与社区的帮助下为该库增加的一些最显著特性的概述。我们为能够成为一个积极参与、推动扩散模型超越仅文本到图像生成的可访问使用,并且在各方面都是一个灵感的社区而感到自豪和无比感激。 目录 追求逼真度 视频流程 文本到3D模型 图像编辑流程 更快的扩散模型 伦理和安全 对LoRA的支持 Torch 2.0优化 社区亮点 使用🤗 Diffusers构建产品 展望未来 追求逼真度 生成式人工智能模型以创建逼真的图像而闻名,但如果您仔细观察,您可能会注意到某些看起来不对劲的事情,比如在手上生成多余的手指。今年,DeepFloyd…

Leave a Comment

OpenRAIL 朝着开放和负责任的人工智能许可框架迈进

开放和负责任的人工智能许可证(”OpenRAIL”)是一种专门针对人工智能制品的许可证,允许开放访问、使用和分发人工智能制品,同时要求对其负责任使用。OpenRAIL许可证可以成为开放和负责任的机器学习领域的普遍社区许可工具,就像当前的开源软件许可证对代码和知识共享许可证对通用内容一样。 机器学习和其他人工智能相关领域的进展在过去几年中蓬勃发展,部分得益于信息和通信技术(ICT)领域普遍存在的开源文化,该文化已经渗透到机器学习研究和开发的动态中。尽管开放性对于创新是一个核心价值观的益处不言而喻,但与机器学习模型的开发和使用相关的伦理和社会经济问题的最近事件传达了一个明确的信息:开放还不够。然而,封闭的系统也不是答案,因为问题依然存在于公司私有的人工智能开发过程的不透明性之下。 开源许可证并不适用于所有情况 对机器学习模型的访问、开发和使用受到开源许可方案的极大影响。例如,当机器学习开发人员通过附加官方开源许可证或其他开源软件或内容许可证(如知识共享许可证)来公开权重时,他们可能会非正式地称之为“开源模型”。这引发了一个问题:为什么他们这样做?机器学习制品和源代码真的如此相似吗?从技术角度来看,它们是否共享足够的内容,使得为源代码设计的私有治理机制(例如开源许可证)也应该治理机器学习模型的开发和使用? 大多数当前的模型开发者似乎是这么认为的,因为大多数公开发布的模型都有一个开源许可证(例如Apache 2.0)。例如,可以参考Hugging Face模型中心和Muñoz Ferrandis & Duque Lizarralde (2022)。 然而,实证证据也告诉我们,对开源化和/或自由软件动态的刚性方法以及对ML制品发布的自由0的公理信仰正在在ML模型的使用中产生社会伦理上的扭曲(见Widder等人(2022))。简而言之,开源许可证不考虑模型作为一个不同于软件/源代码的技术性质和能力的事物,因此无法适应对ML模型的更负责任的使用(例如开源定义的第6个标准),参见Widder等人(2022);Moran(2021);Contractor等人(2020)。 如果已经存在并且每天都在改进针对ML模型的文档、透明度和伦理使用的特定实践(例如模型卡片、评估基准),为什么开放许可实践也不应该根据ML模型的特定能力和挑战进行调整呢? 商业和政府的ML许可实践中也出现了类似的问题。用Bowe & Martin (2022)的话来说:“安德里尔工业的总法律顾问Babak Siavoshy问,为计算机视觉目标检测私下开发的AI算法应该适用于哪种类型的许可条款,并使其适应军事目标定位或威胁评估?商业软件许可证和标准DFARS数据权益条款都不能妥善回答这个问题,因为它们既无法保护开发者的利益,也无法使政府获得部署它的系统的洞察力以便负责任地使用。” 如果的确如此,即ML模型和软件/源代码是不同的制品,那为什么前者要在开源许可证下发布呢?答案很简单,开源许可证已经成为软件相关市场上代码共享的事实标准。这种“开源”方法在协作软件开发方面的应用已经渗透并影响了AI开发和许可实践,并带来了巨大的好处。开源和开放和负责任的人工智能许可证(”OpenRAIL”)可能是互补的倡议。 为什么我们不设计一套由开源等运动启发,以及以ML领域的基于证据的方法为基础的许可机制呢?事实上,已经有一套新的许可框架将成为开放和负责任的ML开发、使用和访问的工具:Open & Responsible AI Licenses(OpenRAIL)。…

Leave a Comment

让我们谈谈机器学习中的偏见!伦理与社会通讯第二期

机器学习中的偏见无处不在,而且机器学习中的偏见非常复杂;事实上,没有单一的技术干预可以有效地解决它所带来的问题。作为社会技术系统,机器学习模型放大了可能加剧不平等和有害偏见的社会趋势,这取决于它们的部署环境并不断演变。 这意味着谨慎地开发机器学习系统需要保持警惕,并对来自部署环境的反馈作出回应,而我们可以通过在不同环境中分享经验教训和开发工具来促进这一过程,以分析每个机器学习开发阶段的偏见迹象。 这篇来自伦理和社会团队的博客文章分享了我们学到的一些教训,以及我们开发的工具,以支持我们和社区中其他人更好地解决机器学习中的偏见问题。第一部分是关于偏见及其背景的广泛反思。如果您已经阅读过它,并且特别关注工具部分,请随意跳转到数据集或模型部分! 🤗 团队成员开发的一些用于解决机器学习中偏见问题的工具 目录: 关于机器偏见 机器偏见:从机器学习系统到风险 将偏见置于背景中 工具和建议 在机器学习开发中解决偏见问题 任务定义 数据集策划 模型训练 🤗 偏见工具概述 机器偏见:从机器学习系统到个人和社会风险 机器学习系统使我们能够在以前从未见过的规模上自动化复杂任务,因为它们在更多的领域和用例中得到应用。当技术发挥最佳作用时,它可以帮助人们与技术系统之间的互动更加顺畅,消除高度重复性的工作需求,或者开辟处理信息的新方式以支持研究。 这些系统同样有可能复制训练数据中所代表的歧视性和滥用行为,特别是当数据编码了人类行为时。这时,技术有可能使这些问题变得更加严重。自动化和大规模部署确实可以: 固化某一时期的行为,阻碍社会进步在技术中得到反映, 扩大有害行为超越原始训练数据的上下文, 通过过度关注刻板印象的关联来放大不平等, 通过将偏见隐藏在“黑盒”系统中,剥夺追索的可能性。 为了更好地理解和解决这些风险,机器学习研究人员和开发人员已经开始研究机器偏见或算法偏见,即可能导致系统在其部署环境中对不同人群产生负面刻板印象或不同绩效的机制。 这些问题对于我们…

Leave a Comment

伦理和社会通讯第三期:Hugging Face的道德开放

使命:开放和良好的机器学习 在我们追求民主化良好的机器学习(ML)的使命中,我们研究如何支持ML社区工作,同时也赋予人们审查和预防可能的危害的能力。开放的发展和科学使权力分散,使许多人能够共同从事反映他们需求和价值的人工智能工作。尽管开放性使广泛的观点能够为研究和整体人工智能做出贡献,但也面临着较少风险控制的紧张局势。 由于这些系统的动态和迅速发展的特性,对ML构件的调节提出了独特的挑战。事实上,随着ML模型变得越来越先进并能够生成越来越多样化的内容,有害或意外输出的潜力增加,需要制定强大的调节和评估策略。此外,ML模型的复杂性和它们处理的大量数据加剧了识别和解决潜在偏见和道德问题的挑战。 作为主办方,我们意识到我们可能会加剧对用户和整个世界的伤害的责任。通常情况下,这些伤害对少数群体的影响是不平等的,具体取决于上下文。我们采取的方法是分析每个上下文中存在的紧张局势,并对公司和Hugging Face社区展开讨论。虽然许多模型可能会加剧伤害,尤其是歧视性内容,但我们正在采取一系列措施来识别风险最高的模型以及采取何种行动。重要的是,来自不同背景的积极观点对于理解、衡量和减轻影响不同人群的潜在危害至关重要。 我们正在开发工具和安全措施,除了改善我们的文档实践,以确保开源科学能够赋予个人力量,同时继续将潜在危害降至最低。 伦理类别 我们推动良好开放ML工作的第一个主要方面是推广那些优先考虑价值观和利益相关方的ML开发工具和积极实例。这有助于用户采取具体步骤解决未解决的问题,并提出可行的替代方案,以摒弃ML开发中的有害实践。 为了帮助用户发现和参与与伦理相关的ML工作,我们编制了一组标签。这6个高级类别是基于社区成员贡献的空间的分析而确定的。它们旨在为您提供一种无专业术语的思考伦理技术的方式: 严谨的工作特别关注以最佳实践为导向的开发。在ML中,这可能意味着研究失败案例(包括进行偏见和公平性审计),通过安全措施保护隐私,并确保潜在用户(技术和非技术人员)了解项目的限制。 同意的工作支持使用和受这些技术影响的人的自主权。 有社会意识的工作向我们展示了技术如何支持社会、环境和科学努力。 可持续的工作强调并探索使机器学习在生态上可持续的技术。 包容性的工作扩大了机器学习世界中谁进行构建和受益的范围。 好奇的工作揭示了挑战社区对技术与其关系的重新思考的不平等和权力结构。 了解更多信息,请访问https://huggingface.co/ethics 请留意这些术语,因为我们将在Hub上的一些新项目中使用这些标签,并根据社区贡献进行更新! 保障措施 将开放发布视为“全有或全无”的观点忽视了决定ML构件正面或负面影响的广泛背景。对ML系统共享和重复使用具有更多控制杠杆支持协作开发和分析,减少了促进有害使用或滥用的风险;为了实现更多的开放和创新参与,以共享利益为目的。 我们直接与贡献者互动,并解决紧迫的问题。为了将其提升到下一个层次,我们正在建立基于社区的流程。这种方法赋予Hugging Face贡献者和受贡献者影响的人权力,以确定限制、共享和额外机制,以确保在我们的平台上提供的模型和数据。我们将关注的三个主要方面是:构件的起源、构件的处理方式以及构件的使用情况。在这方面,我们: 为我们的社区推出了标记功能,以确定ML构件或社区内容(模型、数据集、空间或讨论)是否违反我们的内容准则, 监控我们的社区讨论板,以确保Hub用户遵守行为守则, 以详细介绍社会影响、偏见和预期使用案例以及超出范围使用案例的模型卡的方式充实我们下载量最多的模型的文档, 创建面向受众的标签,例如“不适合所有受众”的标签,可添加到存储库的卡片元数据中,以避免未经请求的暴力和性内容,…

Leave a Comment

Can't find what you're looking for? Try refining your search: