Press "Enter" to skip to content

伦理与社会通讯第5期:“拥抱脸”走进华盛顿及其他2023年夏日的思考

关于AI中“伦理”最重要的一点是它与价值观有关。伦理不告诉你什么是对的或错的,它提供了一个价值观的词汇表,透明度、安全性、公正性,并提供了优先考虑它们的框架。今年夏天,我们能够将我们对AI中的价值观的理解带给欧盟、英国和美国的立法者,帮助塑造AI监管的未来。这就是伦理的闪光之处:在还没有法律制定的情况下帮助开辟前进道路。

符合Hugging Face对开放和问责的核心价值观,我们在这里分享了我们所说和所做的一些内容。其中包括我们CEO克莱姆美国国会作证美国参议院AI洞察论坛上的发言;我们对欧盟AI法案的建议;我们对NTIA关于AI问责的意见;以及我们首席伦理科学家梅格民主党代表团的意见。在许多这些讨论中,经常出现的问题是为什么AI中的开放性是有益的,我们在这里分享了我们对这个问题的回答的一些内容here

顺应我们的核心价值观民主化,我们也花了很多时间公开演讲,并有幸与记者进行交流,以帮助解释目前AI领域的情况。这包括:

今年夏天我们发布的一些讲座包括Giada关于“道德”生成型人工智能是否可能的TED演讲(自动生成的英文字幕非常棒!);YacineTech中的伦理的演讲,分别在马库拉应用伦理中心负责任的开放性负责任和开放基础模型研讨会上进行;Katie关于健康生成型人工智能的聊天;以及Meg伦敦数据周上关于在开放中建立更好的人工智能的演讲。

当然,我们也在我们的常规工作中取得了进展(我们的“工作工作”)。可访问性的根本价值已经在我们的工作中凸显出来,因为我们致力于如何以社会和人类价值观为基础塑造人工智能,让每个人都感到受欢迎。这包括Maria等人关于AI音频的新课程Katie关于开放获取的临床语言模型的资源;Nazneen等人关于负责任生成型人工智能的教程;我们在FAccT上发表的生成型人工智能发布的梯度视频)和材料学中道德宪章、法律工具和技术文档的表达视频);以及关于以参与式、跨学科的方法对文本到图像AI的风险表面进行映射评估生成型人工智能系统在模态和社会中的影响的研讨会(视频)。

我们还在追求公平和正义的目标方面取得了进展,包括最近应用于新的Hugging Face多模型偏见和危害测试IDEFICS。我们努力将透明度负责地运作,其中包括更新我们的内容政策(由Giada发起)。我们通过使用机器学习改进元数据(由Daniel发起),在Hub上支持语言多样性,并且通过向数据集添加更多描述性统计信息(由Polina发起),促进对AI学习内容及其评估的更好理解。

根据我们本季度的经验,我们现在提供了许多在当前AI伦理讨论中特别有用的Hugging Face资源的收藏,可以在这里找到:https://huggingface.co/society-ethics

最后,我们对一些社会伦理的常客,如伊琳和萨莎在MIT的35个35岁以下创新者(Hugging Face占了AI 35个35岁以下创新者的四分之一!)中被选中感到惊喜和高兴;梅格被列为有影响力的AI创新者(连线,财富);以及梅格和克莱姆被选入<time's 100位ai100岁以下人才。我们也非常遗憾地告别我们的同事纳森,他在将伦理与AI系统的强化学习相连接的工作中起到了重要作用。作为他离开的礼物,他进一步详细介绍了在RLHF中实施伦理AI的挑战。

谢谢您的阅读!

— 代表Hugging Face的<伦理与社会常客>梅格

Leave a Reply

Your email address will not be published. Required fields are marked *