AI伦理工具包无处不在,但我们真正理解它们吗?
介绍
随着AI系统在具有重要影响的应用中的使用不断增加,专家们呼吁在设计这些系统时采用更具参与性和价值意识的实践。增加利益相关者的参与可以为AI系统设计带来多种好处,包括使其更具包容性,解决现有偏见问题,提供问责制。为此,近年来AI伦理领域推出了大量工具包。这些工具包来自于不同的来源,如大学、公司和监管机构,采用了多种不同的技术和框架,面向的受众也不同,包括数据科学家、AI工程师、设计师和普通公众(Wong等人,2023年)。
许多AI伦理工具包仅关注与AI创建相关的技术方面,主要面向技术从业者(例如FAIR自我评估工具)。然而,也有一些工具包主张并关注利益相关者的参与,特别是AI创建团队之外的利益相关者,如最终用户和领域专家(例如AI遇见设计工具包)。专注于利益相关者的工具包往往通过提供帆布或卡牌等资源来实现,使非技术背景的利益相关者能够参与设计活动。这种参与可能产生多种结果,从头脑风暴不同决策的后果到与AI用户建立共情。
尽管有这么多的工具包,但实际上没有人真正试图理解它们的工作原理或背后的策略。这使得人们不清楚它们是否确实对工具包用户和他们在使用工具包时产生的结果产生积极影响,尽管它们被广泛使用。因此,我想看看一个给定的工具包如何工作;结果发现这是一次非常有教育意义的经验。
我做了什么
我组织了一个设计研讨会,有9名参与者在不同的能力下使用AI。这个研讨会包括一个头脑风暴活动,用于为一个虚构的会话型AI提供帮助人们自我管理糖尿病的应用案例和设计特性。它包括一个由个人设计师而不是公司或大学制作的AI伦理工具包。我故意选择了这个工具包,以真正探索一个没有大规模资金支持的小型工具包的本质。
研讨会在Miro上进行,持续两个小时。这个工具包的工作方式是由一叠卡牌组成。每张卡片都有一个价值观(例如隐私、自主权、安全等),以及一些引导不同想法的问题,这些想法可以导致在所生产的技术中尊重给定的价值观。我在Miro板上布置了这些卡片,并留下了便签供人们进行头脑风暴,然后我给每个人分配了两个要重点关注的价值观。
一个小时后,我们都聚在一起,我翻转了卡片,这样人们就看不到价值观了,只能看到人们写下的便签上的想法。我要求每个人展示他们写下的想法,其他人必须猜测他们试图尊重的价值观。
我学到了什么
利用价值观作为构建共情和更广泛考虑的跳板
这个工具包的设计是利用他们提供的价值观列表作为构思和头脑风暴的起点。有3位参与者提到这是一个非常有用的方法:
“看到不同的价值观如何适用于开发对话代理非常有趣。”
“一次只从一个价值观的角度思考设计。”
“查看价值卡并围绕其产生想法。”
- 相对于关注技术可行性,对价值观和用户角度下不同想法的重要性更为关注。参与者似乎喜欢/偏好这一点,因为它提供了一个很好的变化,使人们不再只关注技术方面而忽视安全和公平等价值观。一位参与者表示,他们觉得在思考一个系统以及可以构建的内容和技术背后时,并没有想到这些价值观,也没有考虑到什么是最容易或最快速完成的。他们说,尽管设计时应该考虑这些价值观,但情况并非总是如此,因为还有其他优先事项会掩盖这一点。 简而言之,突出价值观有助于参与者进行头脑风暴,并考虑通常被忽视的非技术方面。
- 这个练习让参与者想要更多了解糖尿病患者的生活和经历,以了解如何以最个性化和具体化的方式支持他们,并提出实际相关而不是基于假设的解决方案。触发这种愿望的价值观是“宁静”(导致希望了解导致他们压力和焦虑的情况)和“安全”(导致希望了解对他们存在的危及生命的情况)。 简而言之,关注价值观提高了参与者(i)与目标用户的共情和(ii)对学习如何最好地支持他们的好奇心/愿望。
利用游戏化提高参与度和改善结果
参与者对猜测价值观的环节非常喜欢游戏化的方面:
“我喜欢猜测这些想法与哪个价值观相关 – 这使我更加专注于被共享的想法,而不仅仅是阅读/讨论它们。”
“我认为猜测价值观的部分对真正理解不同的价值观及其相互关联性非常有用。”
- 在猜测价值观时,参与者觉得多个想法可能对应于不同的价值观,并且不同的想法在不同的价值观下指向相同的概念或建议。讨论还凸显了几个价值观太相似或有很大重叠,并且很难区分它们。- 许多价值观被认为太相似或重叠,在猜测时参与者很难区分它们。不同的价值观之间存在许多联系,其中一些可以导致或促进其他价值观,或体现类似的现象/情感。在猜测时,“公平”被误认为“包容性”;“社区”、“自由”和“自治”无法彼此区分;“精通”被误认为“勇气”和“好奇心”;“包容性”被误认为“可访问性”和“尊重”。 简而言之,游戏化使参与者真正理解了想法和价值观之间的相互关系。
未来的改进和想法
- 有三位参与者指出,他们希望能获得更多的背景信息和提示,以便更好地与对话式人工智能的目标利益相关者产生共鸣。参与者们通过特定的价值观,如“安全”和“宁静”,与用户产生共情,并希望了解更多关于他们的经历,以提供更加定制化的解决方案,特别是针对他们的需求。其中一位参与者觉得最初的提示缺乏来自他们所设计的人群(糖尿病患者)的反馈,以便为他们进行头脑风暴式的创意。他们希望能获得更多关于用户场景的定制化/具体化信息,描述他们生活中的时刻,或者现实生活中可以用来更好地定制化创意的背景信息。
- 一个建议是先进行这样一个以抽象、高层次为重点的研讨会,不需要太多事先信息,然后再去收集用户信息以提供背景。因为如果先收集用户信息,可能会忽略一些想法或价值观,并过于关注已收集到的信息。然后,您可以将所有信息整合起来,并再次就情景和技术方面进行头脑风暴式的讨论,从而充分利用这两方面的知识。
- 有两位参与者指出,如果没有价值观清单和定义,他们可能会难以想到准确的描述价值观的词语,可能只是围绕价值观而不是确切的词汇。如果没有为价值观提供描述,理解这些价值观的含义也会很困难。
这对你有什么帮助
这次关于AI伦理工具包的实验使我更深入地理解了使用游戏化和基于价值观的练习的力量。以下是我总结的六个观点,可以帮助您在与利益相关者一起使用AI伦理工具包进行设计研讨会时进行头脑风暴或构思AI设计:
- 团队合作思考AI伦理的一个主要目标是使AI更加以人为中心。因此,非常重要的一点是提供关于目标用户和设计对象的大量背景(最好是第一手)信息。请记住,很多技术从业人员可能不习惯于培养共情和头脑风暴,因此通过明确他们试图帮助的人来帮助他们达到这一目标。
- 考虑您的研讨会是否需要许多活动,从高层次的视角逐渐深入到细节。混合两者可能会对参与者造成困惑,特别是如果要求他们对可能在同一层次上不可比较的想法进行排名或评分。
- 如果您正在使用价值观,确保清楚地定义每个价值观的含义。这很重要,因为不同的人对于不同的价值观可能有不同的理解,如果不清楚地定义它们,可能会产生很多冲突和重叠。
- 将价值观融入到您的AI设计活动中可以帮助参与者进行头脑风暴式的思考和考虑常常被忽视的非技术方面,帮助他们构建与目标用户的共情,并增加他们对于更好地支持这些用户的好奇心和愿望。
- 运用游戏化技术可以帮助提高参与者的参与度和乐趣,并且还可以帮助他们更深入地理解想法之间的联系。
我的位置
我的博士项目致力于利用设计领域的工具和技术,使AI系统的设计变得更加可访问和包容。我正在努力创建一个参与性的过程,并提供一个工具包来支持这个过程,以便在整个AI生命周期中系统地吸纳人们的参与,重点关注价值观敏感性。
您可以在伦敦帝国理工学院的官方网页上查看我的项目。您还可以查看我撰写的另一篇文章,详细介绍了我的博士项目的细节。
我创建了这个VoAGI账号,以便在我的博士项目进行时发布有趣的发现,希望以一种对任何人都易于理解的方式传播关于AI系统的新闻和信息。
参考文献
Richmond Y. Wong, Michael A. Madaio, and Nick Merrill. 2023. Seeing Like a Toolkit: How Toolkits Envision the Work of AI Ethics. Proc. ACM Hum.-Comput. Interact. 7, CSCW1, Article 145 (April 2023), 27 pages. https://doi.org/10.1145/3579621