Press "Enter" to skip to content

2 search results for "Nazneen"

伦理与社会通讯第5期:“拥抱脸”走进华盛顿及其他2023年夏日的思考

关于AI中“伦理”最重要的一点是它与价值观有关。伦理不告诉你什么是对的或错的,它提供了一个价值观的词汇表,透明度、安全性、公正性,并提供了优先考虑它们的框架。今年夏天,我们能够将我们对AI中的价值观的理解带给欧盟、英国和美国的立法者,帮助塑造AI监管的未来。这就是伦理的闪光之处:在还没有法律制定的情况下帮助开辟前进道路。 符合Hugging Face对开放和问责的核心价值观,我们在这里分享了我们所说和所做的一些内容。其中包括我们CEO克莱姆在美国国会作证和美国参议院AI洞察论坛上的发言;我们对欧盟AI法案的建议;我们对NTIA关于AI问责的意见;以及我们首席伦理科学家梅格在民主党代表团的意见。在许多这些讨论中,经常出现的问题是为什么AI中的开放性是有益的,我们在这里分享了我们对这个问题的回答的一些内容here。 顺应我们的核心价值观民主化,我们也花了很多时间公开演讲,并有幸与记者进行交流,以帮助解释目前AI领域的情况。这包括: 莎夏在AI的能源使用和碳排放方面的评论(The Atlantic,The Guardian,两次,New Scientist,The Weather Network,华尔街日报,两次),以及参与了华尔街日报关于这一主题的发表的一部分;对AI末日风险的看法(Bloomberg,The Times,Futurism,Sky News);关于生成AI中的偏见的详细信息(Bloomberg,NBC,Vox);解释边缘化工人如何为AI创建数据(The Globe and Mail,The Atlantic);强调AI中的性别歧视(VICE);以及在MIT Technology Review上就AI文本检测、开放模型发布和AI透明度发表见解。 内森就语言模型和开放发佈的最新进展发表评论(WIRED,VentureBeat,Business Insider,Fortune)。 梅格就AI和虚假信息发表评论(CNN,半岛电视台,纽约时报);关于在AI中公平处理艺术家作品的需要(华盛顿邮报);生成AI的进展及其与更大利益的关系(华盛顿邮报,VentureBeat);通过报告解释记者如何更好地塑造AI的发展(CJR);以及解释AI中的基本统计概念困惑度(Ars Technica);并强调性别歧视的模式(Fast Company)。 艾琳就理解AI的监管环境发表评论(MIT Technology…

Leave a Comment

让我们谈谈机器学习中的偏见!伦理与社会通讯第二期

机器学习中的偏见无处不在,而且机器学习中的偏见非常复杂;事实上,没有单一的技术干预可以有效地解决它所带来的问题。作为社会技术系统,机器学习模型放大了可能加剧不平等和有害偏见的社会趋势,这取决于它们的部署环境并不断演变。 这意味着谨慎地开发机器学习系统需要保持警惕,并对来自部署环境的反馈作出回应,而我们可以通过在不同环境中分享经验教训和开发工具来促进这一过程,以分析每个机器学习开发阶段的偏见迹象。 这篇来自伦理和社会团队的博客文章分享了我们学到的一些教训,以及我们开发的工具,以支持我们和社区中其他人更好地解决机器学习中的偏见问题。第一部分是关于偏见及其背景的广泛反思。如果您已经阅读过它,并且特别关注工具部分,请随意跳转到数据集或模型部分! 🤗 团队成员开发的一些用于解决机器学习中偏见问题的工具 目录: 关于机器偏见 机器偏见:从机器学习系统到风险 将偏见置于背景中 工具和建议 在机器学习开发中解决偏见问题 任务定义 数据集策划 模型训练 🤗 偏见工具概述 机器偏见:从机器学习系统到个人和社会风险 机器学习系统使我们能够在以前从未见过的规模上自动化复杂任务,因为它们在更多的领域和用例中得到应用。当技术发挥最佳作用时,它可以帮助人们与技术系统之间的互动更加顺畅,消除高度重复性的工作需求,或者开辟处理信息的新方式以支持研究。 这些系统同样有可能复制训练数据中所代表的歧视性和滥用行为,特别是当数据编码了人类行为时。这时,技术有可能使这些问题变得更加严重。自动化和大规模部署确实可以: 固化某一时期的行为,阻碍社会进步在技术中得到反映, 扩大有害行为超越原始训练数据的上下文, 通过过度关注刻板印象的关联来放大不平等, 通过将偏见隐藏在“黑盒”系统中,剥夺追索的可能性。 为了更好地理解和解决这些风险,机器学习研究人员和开发人员已经开始研究机器偏见或算法偏见,即可能导致系统在其部署环境中对不同人群产生负面刻板印象或不同绩效的机制。 这些问题对于我们…

Leave a Comment

Can't find what you're looking for? Try refining your search: