Press "Enter" to skip to content

朱丽叶·鲍威尔(Juliette Powell)和阿特·克莱纳(Art Kleiner)是《人工智能困境—访谈系列》的作者

《AI困境》是由朱丽叶·鲍威尔(Juliette Powell)和阿特·克莱纳(Art Kleiner)合著的一本书。

朱丽叶·鲍威尔是一位作家、拥有9000场现场演出经验的电视创作者,同时也是一位技术学家和社会学家。她还是彭博电视台/商业新闻网络的评论员,并在由《经济学人》和国际金融公司组织的会议上发表演讲。她的TED演讲在YouTube上有13万观看次数。朱丽叶识别了那些依靠道德的人工智能和数据取胜的成功商业领导者的模式和做法。她是纽约大学ITP的教职员工,教授包括基于她的书的《负责任媒体设计技能》在内的四门课程。

阿特·克莱纳是一位作家、编辑和未来学家。他的著作包括《异端时代》、《真正重要的人》、《特权与成功》和《明智》。他曾担任普华永道出版的屡获殊荣的杂志strategy+business的编辑。阿特还是纽约大学ITP和IMA的长期教员,他的课程包括共同教授《负责任技术与媒体的未来》。

《AI困境》是一本聚焦于AI技术在错误的手中带来的危险,同时也承认AI对社会的益处的书籍。

问题出现在底层技术过于复杂,以至于最终用户无法真正理解封闭系统的内部运作。

其中一个最重要的问题是,负责任的人工智能的定义总是在变化,因为社会价值观往往随着时间而变化。

我非常喜欢阅读《AI困境》。这本书没有夸大AI的危险,也没有深入探讨人工通用智能(AGI)的潜在陷阱。相反,读者们会了解到我们的个人数据在没有我们知情的情况下被使用的令人惊讶的方式,以及AI的一些当前限制和令人担忧的原因。

下面是一些问题,旨在向我们的读者展示他们可以从这本开创性的书中期待什么。

是什么最初激发您写《AI困境》的灵感?

朱丽叶去哥伦比亚大学部分是为了研究对AI的监管的限制和可能性。她从从事AI项目的朋友那里亲自听到了这些项目内在的紧张关系。她得出结论,AI中存在一个困境,这个问题比自我监管更大。她开发了Apex基准模型——一种关于由于公司和公司内部团体之间的互动而导致低责任AI决策的模型。这导致她的学位论文。

阿特曾与朱丽叶合作过多个写作项目。他读了她的学位论文,然后说:“你这里有一本书。”朱丽叶邀请他共同撰写。在一起工作中,他们发现自己有非常不同的观点,但共享一个强烈的观点,即这种复杂且高风险的AI现象需要更好地理解,以便使用它的人能够更负责任和有效地行动。

《AI困境》中突出的一个基本问题是,通过仅仅研究AI系统的源代码,目前无法了解其是否负责任,或者它是否通过维持社会不平等而加剧了社会不平等问题。这是一个多大的问题?

问题主要不在于源代码。正如凯西·奥尼尔所指出的,当存在封闭的系统时,不仅仅是代码。它是社会技术系统——人类和技术力量相互塑造的系统——需要进行探索。构建和发布AI系统的逻辑涉及确定目的、确定数据、设置优先级、创建模型、为机器学习设置准则和防护措施,并决定何时以及如何进行人类干预。这一部分需要被透明化——至少对于观察者和审计员来说。当这些过程的一部分被隐藏时,社会不平等和其他风险就会更大。你无法通过源代码重新设计设计逻辑。

专注于可解释的AI(XAI)能够解决这个问题吗?

对于工程师来说,可解释的AI目前被认为是一组技术约束和实践,旨在使模型对从事相关工作的人更加透明。对于那些受到错误指控的人来说,解释性有着完全不同的含义和紧迫性。他们需要解释性来能够为自己的辩护进行反击。我们所有人都需要解释性,以使模型的基础业务或政府决策变得清晰。至少在美国,解释性(人类知情的权利)和组织竞争和创新的权利之间将始终存在紧张关系。审计员和监管机构需要不同级别的解释性。我们在《AI困境》中对此进行了更详细的探讨。

您能简要分享一下对AI公司对其发布给世界的代码负责的重要性的看法吗?

迄今为止,例如在亚利桑那州坦佩市发生的自动驾驶汽车撞死行人的事故中,操作员被追究了责任,一个人坐了牢。然而,最终这是一个组织上的失误。

当一座桥梁倒塌时,机械工程师会被追责。因为机械工程师接受训练,并且通过他们的职业承担责任。而计算机工程师则不然。

应该培训和再培训利益相关者,包括AI公司,以做出更好的决策并承担更多的责任吗?

《AI困境》非常关注像谷歌和Meta这样的公司如何收集和利用我们的个人数据。您能分享一个大家都应该关注的个人数据滥用的重要案例吗?

来自《AI困境》,第67页及以下:

新的系统性个人数据滥用案例不断浮出公众视野,其中许多涉及秘密使用面部识别技术。2022年12月,《麻省理工科技评论》发表了对长期以来的iRobot做法的描述。Roomba家用机器人在志愿者的家中记录图片和视频,这不可避免地意味着收集了私人和与家庭相关的图片。这些图片在志愿者不知情的情况下与国外的团体分享。至少有一个案例中,一张一个人在厕所上的照片被发布在Facebook上。同时,在伊朗,当局已开始使用面部识别系统的数据追踪和逮捕不戴头巾的妇女。

这些故事不需要再多说了。这样的故事太多了。然而,重要的是要认识到以这种方式生活的累积效应。当我们感到我们的私人信息可能随时被用来对付我们而毫无警告时,我们失去了对生活的掌控感。

一个危险的概念是我们整个世界都被设计成无摩擦的,摩擦的定义是“在客户与公司的互动过程中,他们遇到减速或引起不满的障碍点”。我们对无摩擦体验的期望如何可能导致危险的AI?

在新西兰,Pak’n’Save智能餐饮机器人建议使用一种配方,如果使用的话会产生氯气。这被宣传为客户利用剩饭剩菜并节省金钱的方法。

无摩擦创造了一种控制的幻觉。听应用程序比查找奶奶的食谱更快更容易。人们会选择抵抗力最小的路径,却没有意识到这会带他们去哪里。

相比之下,摩擦是创造性的。你会参与其中。这导致真正的控制。真正的控制需要注意力和工作,并且在AI的情况下需要进行一次延伸的成本效益分析。

在控制幻觉中,我们似乎生活在一个AI系统在提示人类而不是人类完全掌控的世界。您能给出一些人类集体认为他们有控制权的例子,而实际上他们没有控制权吗?

现在的旧金山,有机器人出租车。自动驾驶出租车的想法往往引起两种冲突的情绪:兴奋(“价格更低的出租车!”)和恐惧(“它们会撞到我吗?”)。因此,许多监管机构建议在车辆上安装人员进行测试,这些人员可以管理控制。不幸的是,实时准备好随时覆盖系统的人类可能不是公共安全的良好测试。对于AI系统来说,过度自信是一个经常出现的动态。系统的自主性越高,人类操作员倾向于相信它,并且不会全神贯注。我们对这些技术感到厌倦。当事故即将发生时,我们不会预料到,并且我们经常无法及时反应。

这本书进行了许多研究,有什么让您感到惊讶的事情吗?

有一件事让我们非常惊讶,那就是全世界的人们在《道德机器》的自动驾驶汽车碰撞模拟中无法达成一致意见,即谁应该活下来,谁应该死去。如果我们在这个问题上无法达成一致,那么很难想象我们能够拥有统一的全球治理或AI系统的通用标准。

您们两位都自称为企业家,您们所学到的和报道的内容将如何影响您们未来的努力?

我们的AI咨询服务旨在帮助组织以负责任的方式发展技术。律师、工程师、社会科学家和商业思想家都是AI未来的利益相关者。在我们的工作中,我们将所有这些观点汇集在一起,并通过创造性的摩擦寻找更好的解决方案。我们已经开发了像有意风险的微积分这样的框架,以帮助应对这些问题。

感谢大家提供的出色答案,希望想要了解更多的读者可以访问《人工智能困境》。

Leave a Reply

Your email address will not be published. Required fields are marked *