Press "Enter" to skip to content

人工智能与自由意志

(Pavel Danilyuk/Pexels)

(1)关于人工智能代理的根本问题

人工智能的巨大能力现在已经显而易见。人工智能可以比任何人类做得更好的事情(例如下棋),并且可以比典型的人类做得更好的许多事情(例如写诗)。然而,就我所知,关于人工智能的能力还有一个重要的问题尚未解决。这不是关于任何特定行为或某种行为的问题,而是关于人工智能代理本身的问题。

问题是这样的。考虑一个人工智能,无论是像ChatGPT-4这样的复杂现有系统,还是一些将来更强大的系统。我们可以问这个系统的具体能力,但我们还可以问一个更一般的问题,即:这个系统是否具有自由意志?这个问题在人工智能文献中的各个时刻都被提出过,但就我所知,它还没有得到回答,而且似乎没有关于回答会是什么样的任何共识。

这场辩论仍然不清晰的部分原因不在于人工智能本身的能力不清晰,而在于对“自由意志”本身的讨论不清晰。这部分哲学可以显得如此混乱,以至于人们可能认为,追求这个问题甚至会带来更多的烟雾而不是光明。我认为情况并非如此,本文的主要目的是对这个问题进行一些严谨和纪律性的探讨。我还将为这个问题提供我认为最佳答案的辩护,尽管这并不是最重要的。

(2)有感知能力的问题

首先,将我们的问题与另一个问题区分开来将会有所帮助。这个问题已经被更广泛地讨论过,而且我认为比我们的问题更准确。因此,虽然它是独立的,但它可以作为我们讨论问题的一种模式。

这是有感知能力的问题。有一种存在的感觉。除了我的反应和行为之外,我的体验还有一种定性的维度,一种主观的感觉,就像当我看到黄色或感到疼痛时一样。虽然我的体验这个方面不一定从外部可读,但我通过内省清楚地知道它在我自己的情况下是存在的。我有感知能力或有意识的体验。

然后我们可以问:一个足够复杂的人工智能是否也具有感知能力?这个问题目前是一个活跃的辩论对象。一些哲学家,如大卫·查尔默斯,认为我们还没有达到这一点,但可能在十年左右可以实现。其他人对人工智能的所谓感知能力持否定态度,认为这是我们自己的体验在数字领域的无根据的投射。还有一些人,也许包括许多工程师,认为这个问题是不可接受的哲学问题,甚至可能是毫无意义的。

我在这里并不打算支持感知问题的任一方,也不打算质疑这是否是一个有意义的问题。相反,感知问题为我们设定了一个基准。我的目标是使我们的问题至少与感知问题一样清晰和有意义。

我们的问题与感知问题也是不同的。我们可以通过考虑某人有感知能力但缺乏自由意志,或者有自由意志但缺乏感知能力的情况来看出这一点。

这是第一种情况。想象一下,你的所有行为都受到外在力量的指导。就像一个木偶,当你的“控制器”举起你的手臂时,你也举起你的手臂,当你的“控制器”指示你思考黄色时,你也思考黄色,等等。也许你甚至没有意识到你的控制器的存在。从某种直觉上讲,你缺乏自由意志。尽管如此,你可能仍然具有感知能力。例如,你仍然有看到黄色的体验。

这是第二种情况。查尔默斯考虑了僵尸,它们在功能上与我们自己相似,但缺乏有意识的体验。僵尸像我们一样“行走和说话”,但内部没有任何活动。这样的存在因定义而缺乏感知能力。但它们可能仍然具有自由意志。也就是说,它们可能面临各种选择并自由地在其中选择。因此,僵尸表明可以有没有感知能力的自由意志。

因此,我们的问题与感知问题是不同的。因此,至少有四种可能性。一个人工智能可以具有感知能力和自由意志,就像我们似乎具有的那样。或者一个人工智能可以具有感知能力但没有自由意志,就像有感知能力的木偶一样。或者一个人工智能可以具有自由意志但没有感知能力,就像僵尸一样。或者一个人工智能既没有感知能力也没有自由意志,就像大多数无生命的物体和工具一样。

(3)非人类的能力

对比另一个可能提出的问题也会有所帮助。我们的问题是关于人工智能等与我们不同的存在的能力的问题。通过反思另一个关于与人工智能不同,不引起同样困惑的存在的能力的问题,我们可以对这个问题有一些了解。也就是说,我们可以问问关于非人类动物的问题。

非人类动物是否具有自由意志?与人工智能一样,我们可以在这里问问边界问题,但至少我们可以从哺乳动物开始,这些动物具有可证明的智力水平,例如海豚、黑猩猩,也许还有猪和狗。这些动物是否具有自由意志?

在自由意志的哲学文献中,似乎存在对这个问题的有意忽略。在讨论这些问题时,存在一种明显的人类中心主义偏见。这可能是因为自由意志的问题通常与神学问题或道德责任问题相关,这被认为是与人类有特殊关系的问题。

海伦·斯图尔特(Helen Steward)有力地辩称这是一个错误。毕竟,我们也是动物,我们认为我们自己具有自由意志。为什么其他非人类动物,至少是“更高级”的动物会有所不同呢?在这里进行区分,就像彼得·辛格(Peter Singer)在另一个背景下嘲笑物种主义一样,是犯了类似的错误。

更确切地说,斯图尔特辩称,动物具有自由意志的理由如下。例如,海豚等动物面临多种行动选择,例如到达相同目的地的不同路线。选择哪种行动取决于海豚。海豚的选择决定了它的行动方式。

与此形成对比的是,一块石头在山上滚动。这块石头可能采取许多路径,但石头无法选择它采取的路径,也无法决定任何事情。相反,这些事情都是由石头外部的力量决定的。或者与之形成对比的是,一个操纵木偶。这个操纵木偶可能表现出许多行为,但木偶无法选择它表现出的行为,也无法决定这个。

从这个意义上说,海豚与我们非常相似,与石头或操纵木偶非常不同。因此,如果我们认为我们拥有自由意志,我们应该相信海豚(以及黑猩猩、猪和狗)也有自由意志。海豚在这方面与我们相似。这正是我们应该从一个正确的自然主义行动观点中预期到的结果,这一观点认为我们与其他动物之间没有根本的区别。

(4)定义“自由意志”

现在让我们回到最初的问题。人工智能是否具有自由意志,或者可能具有自由意志?如果我们将其他自然存在,如海豚,包括在具有自由意志的存在类别中,我们是否也应该将某些人工存在,包括适当复杂的人工智能,纳入其中?

为了对这个问题有所了解,我们想做一些许多人可能一直在要求的事情,即更清楚地说明我们所说的“自由意志”的含义。我认为很容易夸大这个定义性的练习的价值。我们大致理解人工智能是否具有自由意志的问题,而任何定义本身也可以有各种解释。尽管如此,在这一点上,对我们的术语进行一些严谨的界定仍然有一定的价值。

我认为决策理论可以达到适当的严谨水平。在决策理论中,我们谈论一个代理人面临多个选项,她必须在其中进行选择。这是一个选择情境。代理人在相关意义上具有自由意志,只要她遇到选择情境并在这些选择情境中做出有效的选择。也就是说,非正式地说,只要我经常面临多种选择并真正在其中进行选择,我就拥有自由意志。

这个自由意志的概念与斯图尔特的观点非常接近。选项只是行动方式。而我对选择的概念与她对解决的概念非常相似。因此,正如斯图尔特对自由意志的理解意味着海豚具有自由意志一样,决策理论上的自由意志的概念意味着海豚(以及黑猩猩、狗和猪)具有自由意志。

请注意,这种自由意志的概念不像文献中的其他概念那样强大。例如,它并不意味着对自己的行为负有道德责任。一个存在是否面临选择情境以及她是否对自己的行为负有道德责任是两个不同的问题。可以说,至少有些非人类动物面临选择情境,但并不对自己的行为负有道德责任。无论如何,这些问题是不同的问题,我想在这里重点关注的是自由意志的问题。

然而需要注意的是,决策论观念中的自由意志仍然是一个严格的要求,从某种意义上来说是一个“形而上学”的问题。具体而言,要求并不仅仅是一个实体可以在决策论术语中是被有用地建模的。这与丹尼尔·丹尼特所称的“故意立场”密切相关。可以说,许多事物即使不是真正的代理人,例如操纵傀儡和无人机,也可以在决策论术语中被有用地建模。

更接近我们的生活的是,很多人会同意这样的观点:精密的人工智能可以在决策论术语中被有用地建模。但这不是问题所在。问题是它们是否被正确地建模。也就是说,人工智能真的是自由的代理人吗?还是它们只是我们可以有用地说它们是自由的东西(就像操纵傀儡或无人机一样),尽管它们实际上并不是自由的?

我们对人工智能和自由意志的最初问题现在已经被整理成一个相对可处理的问题。我们现在的问题是:人工智能是否会面临选择的情况?也就是说,人工智能的决策论表示不仅仅是有用的,而且是真实的吗?

(5)人工智能、身体和环境

对于这个问题,有几种方式可以证明否定的答案。

最简单的论证是我们可以称之为组合论证。人类或海豚是碳基生命形式,受生物学规律的约束。相比之下,人工智能通常是由硅和塑料制成的计算机芯片实现的。在感知能力方面,有些人认为由某种材料制成对感知能力来说是必要条件。也可以用类似的论证来反对自由意志。

然而,组合论证的力量是有限的。首先,即使在感知能力的情况下,这种论证通常被认为是不令人信服的。人类大脑的复杂性是其感知能力的基础,即使大脑逐渐由硅制成,这一主张也会同样令人信服。对于自由意志来说,这种推理似乎更有说服力。使我们这样的生物具有自由意志的东西,似乎并不是由生物物质构成是必要的。

一种稍微复杂一点的论证方式是我们可以称之为生态学论证。人类或海豚是一种有身体并生活在环境中的有机生物。相比之下,人工智能通常没有身体或者没有一个身体可以居住的环境。一些哲学家,如约翰·塞尔,认为人工智能因此无法满足关于故意性或思考对象的条件。也可以使用类似的论证来反对人工智能的感知能力。最后,也可以使用生态学论证反对人工智能具有自由意志的主张。

然而,生态学论证的力量也是有限的。当人们声称人工智能具有自由意志时,最合理作为其自由行为的候选行为是心理或口头行为,例如对问题给出一个回答而不是另一个回答。不清楚为什么具有身体会是这种自由的必要条件。即使是这样,也没有障碍将人工智能配备上人工身体,事实上已经有人这样做了。

组合论证和生态学论证是将对将感知能力或故意性授予人工智能的标准异议转化为对将自由意志授予人工智能的异议的论证。也就是说,它们是将心灵哲学中的论证转化为代理人哲学中的论证。我不想说这样的论证是失败的,只是在本讨论的精神中,它们对于自由意志的案例并没有比对于感知能力或故意性更有说服力。在心灵哲学中对这些论证所给出的回应可以直接扩展到自由意志的案例。

(6)来自编程的异议

还有一种关于人工智能不能拥有自由意志的论证,似乎特别适用于代理人的情况。这个论证基于人工系统的特定细节。特别地,有人认为人工系统是被编程的。但是,如果某物被编程为执行它所做的事情,那么它就没有其他选择。我们的自由意志概念在某种程度上似乎几乎是与无编程相关的。由于人工智能是被编程的,它没有自由意志。

对于某些系统来说,这种论证是有道理的。例如,一个典型的计算器执行简单的加法算法和其他算术功能。如果我给一个典型的计算器输入“4 + 4”,那么极有可能它会得出“8”的回答。计算器没有自由选择给出不同的答案。因此,在某些情况下,编程似乎会削弱对自由意志的主张。

但是典型的人工智能系统,今天,与此大不相同。谷歌设计的AlphaZero系统,用于下棋、围棋和其他游戏(并且可以击败任何这些游戏中的人类选手)。AlphaZero或类似程序所执行的处理,在很大程度上是由神经网络实现的,这些神经网络已经通过大量的数据进行了训练,从中获得模式和期望。这里没有对应于计算器执行的直接算法。而且目前还不清楚为什么这种“编程”应该成为类似AlphaZero系统具有自由意志的主张的反对理由。

有人可能仍然坚持认为这些系统在某种意义上是代码的产物,因此从某种广义上来说被编程了,因此不能具有自由意志。这个论点的困难在于一旦以这种广义的方式理解“编程”,那么我们被编程的可能性就更大了。毕竟,我们拥有的大脑以一种我们无法访问其底层运作方式的方式进行信息处理。如果我们愿意容忍我们的情况中存在这种程度的编程,并坚持我们仍然具有自由意志,那么对称性的考虑表明在人工情况下,我们不应该将编程视为自由意志的障碍,至少在适当复杂的人工智能的情况下不是。

(7)AI自由意志的案例

这些都是反对AI可能具有自由意志的主张的论据。那么,对于AI确实具有自由意志的积极主张,有什么论据呢?

这里的论证与对海豚、猪或我们自己的论证相同。AI似乎参与了深思熟虑的行为,看起来似乎面临着一系列选择,并在其中进行选择。当我下一盘棋时,我有多种走法可供选择,我会尽量选择最好的一种并进行选择。当AlphaZero下一盘棋时,它似乎也是这样做的。

当然,外表可能会误导。在之前的讨论中,我们考虑了一些可能性。例如,可能是典型的人工智能被编程执行了一种行为,但给人一种它前方有很多行为的外观。也许视频游戏中的某些“非玩家角色”就是这样的。但是,正如刚才所讨论的,这显然不适用于现有最好的人工智能系统。这些系统只是以一种更复杂和抽象的方式“编程”,这种方式似乎不与自由意志相冲突。

因此,AI具有自由意志的积极论证与任何其他复杂生物的论证相同。在我们观察和与复杂的AI进行互动时,它似乎能够自由地思考和选择多种选择之间。对于AI没有或不能具有自由意志的论证已被证明是不成功的。因此,我们最好的假设是,适当复杂的AI确实具有自由意志。这不是证明,甚至不是最终的结论。它只是对此案例的广义归纳和实证的论证,即在这种情况下,表象是准确的,AI确实具有自由意志。

(8)决定论的问题

我还没有提到在大多数关于自由意志形而上学的讨论中占据重要地位的几个问题。其中一个是决定论,另一个是兼容主义者和不兼容主义者之间的争议。这些问题在某种意义上是相关的,兼容主义者断言,而不兼容主义者否认,自由意志与决定论是兼容的。

让我们从决定论开始。首先,我认为我们应该将其视为可信的事实。我们所居住的物理世界可能是决定论的,即它的过去和法则最多只允许一种未来。它也可能不是决定论的。我们根本不知道。我们的世界可能是量子力学的,但量子力学有确定性解释。因此,决定论在这个一般意义上是一个需要通过物理学来决定(如果可以的话)的经验假设。

从这些科学事实中,可能会有一些关于自由意志不可能性的论证。我们将在下面回到这个问题。但是,如果确实存在这样的论证,那么它适用于自然和人工存在。这里没有特殊的论证反对AI可能具有自由意志的主张。因此,我们应该在这一点上简单地说,就决定论而言,AI具有自由意志的论证与我们拥有自由意志的论证一样强。确切的强度将取决于我们对兼容主义问题的评估,如前所述,我们将很快回到这个问题。

在讨论这个问题之前,值得考虑计算机科学文献中另一种对“决定论”的理解。确定性算法或系统是指在给定某个特定输入的情况下,总是产生相同输出的算法或系统。像加法这样的函数在这个意义上是确定性的。相比之下,大多数复杂的人工智能系统在这个意义上不是确定性的。AlphaZero可能会对相同的初始输入产生不同的输出(例如,对一个皇后兵开局的不同反应),而像ChatGPT-4这样的大型语言模型可能对完全相同的问题产生不同的回答。因此,在计算机科学中所谓的“确定性”意义上,大多数复杂的人工智能系统都不是确定性的。这与我们之前观察到的AI所涉及的编程方式不会威胁到自由意志的观点有关。

因此,物理决定论是一种可能威胁到各种自由意志的全局假设,但对于AI所具有的自由意志而言,并不构成特殊威胁。在计算机科学中有一种特殊的“决定论”意义,但从这个意义上说,AI并不是确定性的,因此在这里对自由意志没有进一步的挑战。

(9)如何将AI与兼容主义相结合

让我们考虑一下兼容主义的问题。在前一节中,我认为从物理决定论到“没有自由意志”的结论有一个论证。这个论证同样适用于自然和人工的情况。一方面,正如我所指出的,这表明AI具有自由意志的情况在至少在决定论方面不比我们具有自由意志的情况更糟糕。另一方面,如果我们希望使AI具有纯粹的自由意志,那么我们需要考虑如何回应这个论证。

由于我将决定论可能是真实的作为一个基本的经验可能性,这意味着我们必须找到一些方式来支持兼容主义。市场上存在多种兼容主义观点,所以一个想法是简单地选择最合理的兼容主义版本,并将其应用于AI的情况。我们可以说,我们只需“现成购买”我们的兼容主义。

然而,这个建议存在一些困难。也许最令人望而生畏的是,许多兼容主义版本都依赖于人类心理的特定方面。例如,根据哈里·弗兰克福特所辩护的一个著名观点,一个人只有在其意志符合其二阶欲望时才被认为是自由的。但很难理解这种观点对AI是否有意义,因为将欲望的层次结构应用于AI并不明显。至少,对于AI的自由问题不应该依赖于关于其心理与我们的心理相似程度的相对细微的问题。

这最后一点暗示了对现成兼容主义的更大关注。许多兼容主义版本并不直接适用于其心理与我们的心理完全不同的生物。这可能适用于AI,也可能适用于海豚和猪。弗兰克福特自己明确表示,他的主要目标是对人类的描述。通常,这个假设是隐含的。当寻找适用于AI的兼容主义时,现有的兼容主义具有明显的人类中心倾向,这使其不适合我们的目的。

考虑到这一点,有几种方法可以进行。我们可以为AI开发一种定制的兼容主义,利用人工系统的特定特征,展示它们的自由如何与物理决定论相容,就像像弗兰克福这样的哲学家利用人类的特征展示他们的自由如何与物理决定论相容一样。

或者,我们可以提出一种“一刀切”的兼容主义。这种方法不依赖于一个生物的特定特征 – 无论是人类、AI还是非人类动物 – 来捍卫兼容主义。相反,它会以简洁而通用的方式来表述和捍卫兼容主义,原则上适用于任何行动者。我在我的著作《选项与代理》中为这样的“简单兼容主义”提出了论证。克里斯蒂安·利斯特在他的著作《为什么自由意志是真实的》中提出了一种不同但同样通用的方法。这两种方法都可能证明AI具有自由意志,即使我们的宇宙是决定论的。考虑到对AI的思考,关键是我们应该朝着非人类中心的兼容主义努力。

(10)自由意志、风险和人工智能的未来

我已经考虑过人工智能是否具有自由意志的问题,并且已经提出了一个合理的观点,即在最小决策理论意义上,人工智能面对多个选择,可以自由地做出决策。这个论点是归纳性和可推翻性的,因为它最终是一个实证问题。始终贯穿其中的一个主题是代理的连续性,从人类到非人类动物再到人工智能。思考人工智能的案例使我们倾向于采取一个适当广泛的代理形式的概念,它不过分特定于我们特定物种的特殊性。

我没有触及AI是否具有自由意志的主张的实际影响。如今,许多人担心一旦人工智能足够智能,它将选择参与破坏性行为,甚至包括摧毁人类自身,以追求自己的目标。前面讨论对于这些担忧的影响在我看来是模棱两可的。

一方面,声称人工智能具有自由意志可能会加剧这些担忧。如果人工智能不仅仅是一个工具或傀儡,而是一个自由行动者,那么它发展和追求自己的目标,不顾我们的目标的可能性似乎会增加。另一方面,人工智能有多个选择的事实可能会缓和这些担忧。对于AI来说,“接管”并不是必然的,尤其是对于AI本身而言。在现有的情况下,人工智能面临多种选择,包括避免执行其最具破坏性潜力的选择。它选择如何避免以及可能导致它这样做的考虑因素,似乎是值得进一步考虑的问题。

Leave a Reply

Your email address will not be published. Required fields are marked *