Press "Enter" to skip to content

ChatGPT的哲学课程:这项AI研究探讨LLMs在对话代理中的行为

ChatGPT的哲学课程:这项AI研究探讨LLMs在对话代理中的行为 机器学习 第1张ChatGPT的哲学课程:这项AI研究探讨LLMs在对话代理中的行为 机器学习 第2张

2023年是LLMs的年份。ChatGPT,GPT-4,LLaMA等新的LLM模型正在接连抢占聚光灯。这些模型已经彻底改变了自然语言处理领域,并越来越广泛地应用于各个领域。

LLMs具有展现广泛行为的显著能力,包括进行对话,这可以导致与类似人类的谈话者进行交谈的引人注目的幻觉。然而,重要的是要认识到,基于LLM的对话代理在几个方面与人类存在显着差异。

我们的语言技能是通过与世界的具体互动发展起来的。我们作为个体,通过社交化和沉浸在语言用户社区中获得认知能力和语言能力。这一过程在婴儿身上发生得更快,随着我们长大,我们的学习过程变慢,但基础仍然相同。

相比之下,LLMs是在大量人类生成的文本上进行训练的无体神经网络,其主要目标是基于给定的上下文预测下一个单词或标记。它们的训练围绕着从语言数据中学习统计模式,而不是通过直接体验物理世界。

尽管存在这些差异,但我们倾向于用LLMs来模仿人类。我们在聊天机器人、助手等方面使用这种方法。然而,这种方法带来了一个具有挑战性的困境。我们如何描述和理解LLMs的行为?

使用熟悉的民间心理学语言是很自然的,像使用“知道”、“理解”和“思考”这样的术语来描述对话代理,就像我们对待人类一样。然而,当这些语言被过分字面地理解时,这种语言会促进拟人化,夸大了AI系统和人类之间的相似之处,同时掩盖了它们的深刻差异。

那么我们如何应对这个困境?我们如何为AI模型描述“理解”和“知道”这些术语?让我们来看看“角色扮演”论文。

在这篇论文中,作者提出采用替代概念框架和隐喻来有效地思考和谈论基于LLM的对话代理。他们主张使用两个主要隐喻:将对话代理视为扮演单一角色或作为可能角色的多元超定位的模拟集合。这些隐喻提供了不同的角度来理解对话代理的行为,并具有其独特的优势。

ChatGPT的哲学课程:这项AI研究探讨LLMs在对话代理中的行为 机器学习 第3张
自回归采样的示例。来源:https://arxiv.org/pdf/2305.16367.pdf

第一个隐喻将对话代理描述为扮演具体角色。当给定提示时,代理尝试以与分配的角色或人物相匹配的方式继续对话。它旨在根据与该角色相关联的期望进行回应。

第二个隐喻将对话代理视为来自各种来源的不同角色的集合。这些代理已经接受了广泛的材料培训,如书籍、脚本、采访和文章,这使它们对不同类型的角色和情节有很多了解。随着对话的进行,代理根据其训练数据调整其角色和人物,使其能够适应并以角色回应。

ChatGPT的哲学课程:这项AI研究探讨LLMs在对话代理中的行为 机器学习 第4张
对话代理中的轮流发言的示例。来源:https://arxiv.org/pdf/2305.16367.pdf

通过采用这个框架,研究人员和用户可以探索对话代理人的重要方面,如欺骗和自我意识,而不会错误地将这些概念归因于人类。相反,重点转向理解对话代理人在角色扮演场景中的行为以及它们可以模仿的各种角色。

总之,基于LLM的对话代理人具有模拟人类对话的能力,但它们与实际人类语言用户有很大的不同。通过使用替代隐喻,比如将对话代理人视为角色扮演者或模拟的组合,我们可以更好地理解和讨论它们的行为。这些隐喻为基于LLM的对话系统的复杂动态提供了洞见,使我们能够欣赏它们的创造潜力,同时认识到它们与人类的根本区别。

Leave a Reply

Your email address will not be published. Required fields are marked *