Press "Enter" to skip to content

AI政策 @🤗 对美国NTIA关于AI问责性的意见回应

在6月12日,Hugging Face向美国商务部NTIA的AI责任政策信息请求提交了回应。在我们的回应中,我们强调了文档和透明度规范在推动AI责任流程中的作用,以及依靠技术的众多利益相关者的全面专业知识、观点和技能来应对这项技术前所未有的增长所带来的问题。

Hugging Face的使命是“民主化良好的机器学习”。我们理解这个上下文中的“民主化”一词是指使机器学习系统不仅更容易开发和部署,而且更容易让众多利益相关者理解、审查和批评。为此,我们致力于通过教育工作、文档化、社区指南和负责任的开放方式来促进透明度和包容性,同时开发了无代码和低代码工具,以便让各种技术背景的人们能够分析机器学习数据集和模型。我们相信,这有助于所有感兴趣的人更好地理解机器学习系统的局限性,以及如何安全地利用这些系统最好地服务用户和受这些系统影响的人们。这些方法已经证明在促进问责方面非常有用,尤其是在我们帮助组织的更大型的跨学科研究项目中,包括BigScience(请参阅我们关于该项目社会利益的博客系列)和最近的BigCode项目(其治理在此处有更详细的描述)。

具体而言,我们对问责机制提出以下建议:

  • 问责机制应当关注机器学习开发过程的所有阶段。完全依赖人工智能系统的社会影响取决于在开发的每个阶段所做的选择,这些选择是不可能完全预测的,而只关注部署阶段的评估可能会鼓励表面层次的合规性,无法解决深层次的问题,直到它们造成了重大损害。
  • 问责机制应当将内部要求与外部访问和透明度相结合。内部要求,如良好的文档实践,塑造了更负责任的开发,并清晰地规定了开发人员在实现更安全和可靠的技术方面的责任。对内部流程和开发选择的外部访问仍然是必要的,以验证声明和文档,并赋予技术的众多利益相关者权力,这些利益相关者并不属于其开发链,但能够有意义地塑造其发展并推动他们的利益。
  • 问责机制应当吸引最广泛的贡献者参与,包括直接从事技术开发的开发人员、跨学科研究社区、倡导组织、政策制定者和新闻工作者。理解机器学习技术迅速增长带来的变革性影响是一个超出任何单个实体能力范围的任务,将需要充分利用我们广泛的研究社区及其直接用户和受影响人口的各种技能和专业知识。

我们相信,优先考虑机器学习工件本身的透明度以及对其评估结果的透明度将对实现这些目标至关重要。您可以在此处找到我们更详细的回应,以解决这些问题。

Leave a Reply

Your email address will not be published. Required fields are marked *