Press "Enter" to skip to content

人工智能的黑暗面——创造者可以如何帮助?!

负责任的AI发展-考虑因素和框架适用于AI领导和AI产品团队

Photo by Ramón Salinero on Unsplash

如今,每一天都会有我们了解到一个惊人的AI工具所完成的事情。是的,我们正处于未知的领域。人工智能革命正在以惊人的速度前进。与之相关的担忧和恐惧也同样如此。事实是-这些担忧中很多是真实存在的!

“到2029年左右,人工智能将达到人类水平。再往后追溯,比如说到2045年,我们将使我们文明的人类生物机器智能增强1亿倍。”

—雷·库兹韦尔

然而,这并不意味着我们在AI的发展上应该抱有犹豫态度。总体效果是积极的-无论是在医疗保健、自动驾驶还是其他任何应用领域。因此,只要有一套正确的保护措施,我们就应该能够在伦理和责任的前提下推动技术限制。

以下是一些考虑因素和框架,可以帮助那些想成为解决方案一部分的人负责任地开发AI。

确定原则

在组织层面上,解决这些困境的第一步也是至关重要的一步,就是明确你的原则。一旦你确定了原则,决策过程就变得更加容易,违反组织价值观的决策的可能性就降低了。谷歌已经创建了“人工智能原则”。微软已经创建了“负责任的AI原则”。

Photo by Brett Jordan on Unsplash

经济合作与发展组织(Organization for Economic Cooperation and Development,简称OECD)已经制定了OECD人工智能原则,这促进了创新、可信的AI的使用,并尊重人权和民主价值观。截至今日,已有90多个国家采纳这些原则。

2022年,联合国系统协调员委员会(United Nations System Chief Executives Board for Coordination)在联合国系统内批准了人工智能道德使用原则

咨询公司PWC已将90多个道德原则合并为9个核心原则(见下文)。在这里查看他们的负责任AI工具包。

PwC

增加多样性以解决偏见

1. AI员工的多样性:为了有效解决偏见问题,组织必须确保包容和参与贯穿其AI组合的每一个方面-研究、开发、部署和维护。这说起来容易做起来难。根据2021年AI指数调查,影响不足代表人群的两个主要因素是缺乏榜样和缺乏共同体。

来源:AI指数报告2020

2. 数据集内的多样性:确保算法所训练的数据集具有多种多样性的代表性。获取代表人口多样性的数据集并非易事。

内置隐私

如何确保个人身份可辨认的数据的安全性?无法阻止数据的收集。组织必须确保在数据收集、存储和利用过程中的隐私保护。

照片作者:Claudio Schwarz(来自Unsplash)
  1. 同意 — 数据收集必须确保主体同意使用数据。人们应该能够撤回他们对个人数据使用的同意,甚至要求删除他们的个人数据。欧盟在这方面已经起到了引导作用 — 通过《GDPR》,它已经使得在没有人们明确同意的情况下处理包含个人身份信息的音频或视频数据成为非法行为。可以合理地推测,其他国家也会相应地采取行动。
  2. 最少必要数据 — 组织应确保仅定义、收集和使用训练算法所需的最少必要数据。只使用必要的数据。
  3. 去识别化数据 — 使用的数据必须采用去识别化格式,除非确有必要不透露个人身份信息。即便在这种情况下,数据披露也必须符合特定司法管辖区的法规。在这方面,医疗保健行业是领导者。已明确定义了防止对PII(个人识别信息)和PHI(个人健康信息)访问的法律和法规。

内置安全

如何确保AI按预期运作,不出现意外情况?或者如果有人黑客攻击或误导AI系统进行非法行为,怎么办?

DeepMind在这个方向上采取了最为有效的举措之一。他们提出了一个三方面的方法来确保AI系统按预期运行,尽可能减少不良结果。根据他们的说法,我们可以通过专注于以下三个支柱来确保技术AI安全。

照片作者:Towfiqu barbhuiya(来自Unsplash)
  1. 规格说明 — 定义系统的目的,确定理想规格(愿望)、设计规格(蓝图)和公开规格(行为)之间的差距。
  2. 稳健性 — 确保系统能够经受干扰。
  3. 保证和监管 — 主动监控和控制系统的行为,并在出现偏离时进行干预。
来源:DeepMind

内置问责

问责是我们需要解决的AI中最困难的方面之一。由于其社会技术性质的原因,这变得困难。根据Stephen SanfordClaudio Novelli, Mariarosaria Taddeo & Luciano Floridi的说法,以下是这个难题的主要组成部分。

  1. 治理结构 — 目标是确保在AI方面存在明确定义的治理结构。这包括目标、责任、流程、文件和监测的明确性。
  2. 合规标准 — 目标是澄清适用于系统及其应用的伦理和道德标准。这至少表示系统行为背后的意图。
  3. 报告 — 这里的目标是确保记录系统的使用和影响,以便根据需要进行辩解或解释。
  4. 监督 — 目标是实现持续的审查。内部和外部审计都是有益的。这包括检查数据、获取证据和评估系统的行为。必要时这可能包括司法审查。
  5. 执行 — 目标是确定对组织和其他相关利益相关者的后果。这可能包括制裁、授权和禁止。

构建透明度和可解释性

在AI中,可解释性(XAI)是一个重要的领域,近年来引起了广泛关注。简单来说,它是将透明性引入AI算法达到特定结论的原因和因素的能力。 GDPR已在第71款中添加了“解释权”,这意味着数据主体可以要求公司告知他们如何进行自动决策的算法。当我们试图将AI应用于需要高度信任的行业和流程(如执法和医疗保健)时,问题就变得棘手起来。

问题在于——模型的准确性和非线性越高,解释起来就越困难

Source: Machine Learning for 5G/B5G Mobile and Wireless Communications: Potential, Limitations, and Future Directions

简单模型(如分类基于规则的模型、线性回归模型、决策树、KNN、贝叶斯模型等)通常是白盒模型,因此可以直接解释。复杂模型通常是黑盒模型。

  1. 专用算法:像循环神经网络(RNN)之类的复杂模型都是黑盒模型,可以通过其他用于此目的的模型非相关算法或定制算法进行事后解释。其中比较流行的是LIME(局部可解释模型非相关解释)和SHAP(SHapley Additive exPlanations)。还有许多其他算法,如What-if工具、DeepLift、AIX360等,也被广泛使用。
  2. 模型选择:显然,上述工具和方法可用于使AI算法具备可解释性。除此之外,存在一些情况使用黑盒AI,而白盒AI足以满足需求的情况。直接可解释的白盒模型将在解释性方面更容易。如果使用更简单、易解释的模型能够满足用例的所需敏感性和特异性,可以考虑采用更线性和可解释的模型。
  3. 透明度卡片:一些公司,如谷歌和IBM,拥有自己的AI可解释性工具。例如,谷歌的XAI解决方案可供使用。谷歌还推出了模型卡片,以说明其AI模型在训练数据、算法和输出方面的局限性。

值得注意的是,NIST在可解释性、可理解性和透明度之间有区别。为了简单起见,在可解释性下我将这些术语互换使用。

在医疗保健方面,CHAI(Coalition for Health AI)提出了“可信AI的蓝图”——一种确保健康AI透明性的综合方法。这对于从事医疗保健领域AI系统工作的任何人都值得一读。

内建风险评估和缓解措施

组织必须确保端到端的风险管理策略,以防止在实施人工智能解决方案时出现道德问题。目前有多种孤立的框架正在使用。与私营和公共部门的人工智能领域合作开发的NIST RMF(国家标准与技术研究院)是一种自愿使用的框架,预计将增加人工智能解决方案的可信度。

NIST

简言之…

无论你喜不喜欢,技术都会前进。工业化、电力和计算机就是这种情况。人工智能也是如此。人工智能的进展速度太快,以至于法律跟不上。而与之相关的潜在危险也是如此。因此,开发人员有责任以对我们社会最有利的方式负责任地进行开发。我们必须为技术创造一个安全和负责任的环境。

“有了强大的力量,就有了巨大的责任。” —— 蜘蛛侠

现在,你已经有了一个很好的起点。问题是,你是否愿意站出来承担责任,还是等待规则和法规强制你这样做。你知道应该做正确的事。我在此结束陈述!

人工智能的黑暗面——创造者可以如何帮助?! 四海 第10张

  • 👏如果你喜欢我的文章,请给予掌声订阅!这对于我们内容创作者意义重大,让我们能够未来创作更棒的文章 ❤️
  • 🔔关注我在VoAGI | Linkedin | Twitter

谢谢你的时间和支持。非常感谢!

Leave a Reply

Your email address will not be published. Required fields are marked *