人工智能政策@: 回应美国国家电信和信息管理局 (NTIA) 关于人工智能问责制的评论请求

发布时间 2023-06-28 20:27:09作者: HuggingFace

6 月 12 日,Hugging Face 向美国国家电信和信息管理局 NTIA 提交了一份关于 AI 责任政策的信息请求回应。在我们的回应中,我们强调了文档和透明度规范在推动 AI 责任过程中的作用,以及依赖此技术众多利益相关者的全面专业知识、观点和技能来应对这项技术前所未有的增长带来的任何单一实体都无法回答的更多问题之必要性。

Hugging Face 的使命是 “民主化优秀的机器学习”。我们理解这个语境中的“民主化”一词意味着使机器学习系统不仅更容易开发和部署,而且更容易让其众多利益相关者理解、质询和批判。为此,我们通过 强化教育重视文档社区指南负责任开放 的方法来促进透明度和包容性,以及开发无代码和低代码工具,让所有技术背景水平的人都能分析 ML 数据集模型。我们相信这有助于所有感兴趣的人更好地理解 ML 系统的局限性,以及如何安全地利用它们为用户和受这些系统影响的人提供最佳服务。这些方法已经证明了它们在促进责任方面的效用,特别是在我们帮助组织的更大型多学科研究项目中,包括 BigScience (请参阅我们关于该项目社会利益的博客系列 社会背景下的 LLM 研究),以及最近的 BigCode 项目 (其治理方式 在此处详细描述)。

具体而言,我们对责任机制提出以下建议:

  • 责任机制应该 关注 ML 开发过程的所有阶段。一个完整的 AI 启用系统的社会影响取决于开发每个阶段所做出的选择,这些选择是无法完全预测的,只关注部署阶段的评估可能会激励表面层次上遵守规定,但未能解决更深层次的问题,直到它们造成重大损害。
  • 责任机制应该 将内部要求与外部访问结合起来并保持透明。内部要求如良好文档实践塑造更负责任的开发过程,并为开发人员在启用更安全、更可靠技术方面承担责任提供清晰度。外部访问内部流程和开发选择仍然是必要的,以验证声明和文档,并授权技术的众多利益相关者,他们处于开发链之外,有能力真正塑造技术的演变并促进其获益。
  • 责任机制应该 邀请尽可能广泛的贡献者参与,包括直接开发技术的开发人员、多学科研究社区、倡导组织、政策制定者和记者。理解 ML 技术快速增长采用的变革性影响是超出任何单个实体能力的任务,将需要利用我们广泛研究社区和其直接用户及受影响人群的全部技能和专业知识。

我们相信,优先考虑机器学习组件本身和评估结果的透明度对于实现这些目标至关重要。你可以在 这里 找到我们更详细的回应。


英文链接: https://hf.co/blog/policy-ntia-rfc

原文作者: Yacine Jernite, Margaret Mitchell, Irene Solaiman

译者: innovation64

审校/排版: zhongdongy (阿东)