Press "Enter" to skip to content

伦理与社会通讯 #1

你好,世界!

作为一个开源公司,Hugging Face 的创立是基于一些关键的技术伦理价值观:协作、责任和透明。在开放环境中编码意味着将你的代码和其中的选择对世界可见,与你的账户关联,并可供他人批评和添加。随着研究社区开始使用 Hugging Face Hub 托管模型和数据,该社区直接将可复现性作为公司的另一个基本价值观。随着 Hugging Face 上的数据集和模型数量增长,Hugging Face 的工作人员实施了文档要求和免费的教学课程,满足了研究社区提出的新价值观,并围绕审计和理解当前技术所涉及的数学、代码、过程和人员等方面的价值观。

如何在人工智能中实施伦理道德是一个开放的研究领域。虽然关于应用伦理和人工智能的理论和学术研究已存在数十年,但在人工智能开发中应用和测试伦理实践直到过去10年才开始出现。这部分是对机器学习模型的回应,这些模型是人工智能系统的构建模块,超出了用于衡量它们进展的基准,导致机器学习系统在影响日常生活的各种实际应用中被广泛采用。对于我们这些对推动以伦理为基础的人工智能感兴趣的人来说,加入一个以伦理原则为基础的机器学习公司,正当它开始发展壮大,并且正当全球各地的人们开始面对伦理人工智能问题时,是一个根本性地塑造未来人工智能的机会。这是一种新型的现代人工智能实验:一个从一开始就考虑伦理的技术公司是什么样子?将伦理视野放在机器学习上,使良好的机器学习民主化意味着什么?

为此,我们在新的 Hugging Face 伦理与社会通讯中分享了我们最近的思考和工作,每个季度在春分和冬至时发布。这是我们,即“伦理与社会规律”团队的成员们共同努力的结果,这个团队是公司内的一个开放群体,他们作为平等的成员一起探讨机器学习在社会中的更广泛背景以及 Hugging Face 的角色。我们认为,这并不是一个专门的团队:为了使公司在工作和流程中做出价值导向的决策,所有相关方都需要承担共同责任和承诺,以承认和了解我们工作的伦理风险。

我们正在不断研究关于“良好”机器学习的实践和研究,试图提供一些可能界定它的标准。作为一个持续进行的过程,我们通过展望人工智能的不同可能未来,创造我们现在可以做的东西,以使个人和更广泛的机器学习社区所持有的不同价值得到协调。我们将这种方法基于 Hugging Face 的创立原则:

  • 我们寻求与开源社区合作。这包括提供现代化的文档和评估工具,以及社区讨论、Discord和为希望以一种基于不同价值观的方式分享他们的工作的贡献者提供的个人支持。

  • 我们试图在开发过程中透明地展示我们的思考和流程。这包括在项目开始时分享对特定项目价值的写作以及我们对人工智能政策的思考。我们也从社区反馈中获益,作为我们进一步了解应该做什么的资源。

  • 我们将这些工具和成果的创建基于对我们现在和将来所做的影响负责任。优先考虑这一点导致了项目设计,使机器学习系统更具可审计性和可理解性-包括对机器学习之外专业知识的人,例如教育项目和我们的无需编码的机器学习数据分析实验工具。

基于这些基础,我们采取一种以项目特定背景和可预见的影响为中心的价值实施方法。因此,在这里我们没有提供全球价值或原则的清单;相反,我们将继续分享项目特定的思考,例如这个通讯,并在更深入理解后分享更多。由于我们认为社区讨论对于确定不同价值观和受影响的人是至关重要的,我们最近开放了任何人都可以连接到 Hugging Face Hub 在线提供有关模型、数据和空间的直接反馈的机会。除了开放讨论的工具外,我们还制定了行为准则和内容指南,以帮助指导讨论涉及我们认为对于一个包容性的社区空间来说重要的方面。我们开发了一个用于安全机器学习开发的私有 Hub,一个用于评估的库,使开发人员更容易地严格评估他们的模型,用于分析数据的代码来检测偏差和偏见,并在训练模型时跟踪碳排放的工具。我们还正在开发新的开放和负责任的人工智能许可证,这是一种直接解决人工智能系统可能引发的危害的现代许可证形式。本周,我们还可以“标记”模型和空间仓库,以报告伦理和法律问题。

在接下来的几个月里,我们将会撰写关于价值观、紧张关系和伦理操作化的其他几篇文章。我们欢迎(也希望!)对我们的所有工作提出反馈,并希望通过技术和价值观为基础的视角继续与AI社区进行互动。

感谢阅读!🤗

~ Meg,代表伦理与社会研究团队

Leave a Reply

Your email address will not be published. Required fields are marked *