Press "Enter" to skip to content

为什么炒作很重要:实践中思考人工智能

当你发明船只时,你也同时发明了船只沉船。

这是60年代的ELIZA,一台聊天机器人。人们对此非常兴奋。来自维基百科。https://en.wikipedia.org/wiki/ELIZA

在60年代,约瑟夫·魏岑鲍姆对人类如何与计算机进行交流产生了兴趣。这导致了ELIZA的诞生,这是聊天机器人的一个早期例子。ELIZA的工作方式与像ChatGPT这样的现代聊天机器人完全不同,后者会通过大量的文本“学习”并理解其含义。ELIZA则是通过规则进行编程的;它试图将你说的话与其程序中预先设定的一系列模式进行匹配,并基于此给出回应。制作这个系统一定是一项巨大的工程——需要手写大量的代码,以便它能处理一个人可能向它说的大量事情,而这些代码使用的是过去半个多世纪的古老语言。

然而,这项艰苦的工作似乎很有效,与ELIZA互动的人开始认为它理解了他们。就像真的理解他们一样。即使魏岑鲍姆不同意,人们仍然认为它不仅仅是一些代码。ELIZA可以扮演心理治疗师的角色,向你传递像上面图片中所见的毫无意义的名言警句。然而,这并没有阻止学术界认为它将开始取代医生和心理医生。

这听起来有点熟悉,对吧?尽管ELIZA与GPT4相比非常简陋(在某种程度上),人们仍然匆忙地相信它理解了他们,并从而迅速决定它也将取代他们。

什么是炒作?

新产品炒作有一个熟悉的模式——一切都取决于一个曲线。刚开始时,人们对于这件事越来越兴奋(且不理性)。最终,它达到曲线的顶峰。从那里开始,现实开始出现,当人们面对事实时,他们的兴奋逐渐消退。最终,公众舆论会跌至失望谷底。当一切归于平静,我们才会发现这项技术实际上有什么用处,从而达到一个幸福的平台。

Gartner的炒作曲线。来自维基百科。https://en.wikipedia.org/wiki/Gartner_hype_cycle

我的工作涉及与机器人狗和虚拟现实头盔等新兴技术合作。我感觉自己不断被夸大其词的事物所围绕。波士顿动力的机器人狗非常酷炫——很难不断宣称它们是未来的产物(事实并非如此)。让我们来看一些明显没有被过度宣传的技术:

胡闹...

好吧,也许它们有点被夸大了。希望它们至少已经达到了一个有效的平台!让我们看看它们在2023年的进展如何:

...并找到结果。

也许(如果你对这些例子很熟悉)这一切都不会让人惊讶。显然,它们都是灾难。谷歌眼镜已经死了两次。特斯拉正受到诉讼。FTX的创始人目前住在联邦监狱里。问题是,曲线并不总是正确的。有时候你无法通过曲线,有时候你会跌入幻灭谷并永远继续下去。

但我们为什么要关心呢?谷歌眼镜被大肆宣传然后证明糟糕,这重要吗?嗯,有点重要。如果你总是过度宣传一切,并说每一项新技术都是未来,谁会相信你?人们会认真听取你的建议吗?当然,声称特斯拉完全自动驾驶很令人兴奋,但在事实上并非如此,这导致严重事故发生。

通过对技术设定(并鼓励)不切实际的期望,我们让自己陷入了失望的境地。可能不仅是我们自己,还有我们的同事和客户。现在某个地方,这一点非常清楚,就在人工智能领域。

如何降低人工智能的炒作效应?

人工智能最终会陷入幻灭谷。我觉得当人们面临“我该如何实际应用它?”这个简单问题时,问题的破绽开始显露出来。当你玩ChatGPT时,几乎会感到神奇,但是当你试图想象如何将其应用于业务时,这种神奇可能会消失。显然,这些问题都可能发生变化,但很难看到如何解决所有这些问题:

  1. 安全性:我们如何与人工智能进行安全交互,并确保我们的私人数据不会泄露给外界?
  2. 可信性:我们真的能相信它吗?如果不能,我们能否真正将其用于自动化任何过程?
  3. 成本:也许我们可以获得安全可靠的人工智能,但此类服务的成本可能非常高。
  4. 偏见:克服系统中的偏见将是困难的。如果你有一个与你的客户进行交互的人工智能模型,你是否会愿意它曾经浏览过全网,包括Reddit和4Chan,而且在任何时刻都可能重复那里的某些信息?

最后一个思考的是我们被教导相信“越大越好”。有一个关于这些模型的“规模定律”的想法——基本上是,你输入的数据越多,模型越大,输出就会越好。然而,这些资源并非无限——世界上只有那么多GPU。更为根本的是,数据也是有限的。预计到2027年,全球所有高质量的文本数据都已被用于训练大型语言模型。那之后呢?

所以,如果这将使我们陷入谷底,什么会拯救我们?有哪些好的东西能让我们有意义地使用人工智能?

  1. 让它关注你!:一个普通的聊天机器人并没有太多用处。一个能为我写一首歌的人工智能很酷,但那对你的业务帮助不大。通过缩小范围,但将其关注点集中在你身上(通过使用自己的数据进行微调),这些聊天模型将变得更加有用。它可以写一份文件是个有趣的想法,但当它能像你一样写一份文件时,才是真正有用。
  2. 大数据已经过时:直到最近,进行大规模数据科学需要大量的数据。但在使用LLM(大型语言模型)时,情况已经不同——任何人都可以访问GPT4。
  3. 让一切都归于草图:自动化(这是一个巨大的概括)通常涉及转换数字。人工智能确实能够实现包含自然语言的自动化流程。前提是其中有一个人在其中起到关键作用。

为什么我应该在意?

如果你正在阅读这篇文章,很有可能你曾经使用过ChatGPT——你可能希望得到清晰和现实的期望。炒作会让这种清晰度变得模糊。另一方面,我们中的许多人都是开发人员、初创公司的创始人、技术人员,使用AI预建工具来实现某些目标,或者只是AI的支持者。把某事炒作起来并让人们使用它(尤其是你自己亲手制作的东西),并非是将工具交给别人后就结束了。或者用更为优美的说法:

当你发明船时,也同时发明了沉船;当你发明飞机时,也同时发明了飞机失事;当你发明电力时,也同时发明了电击。

– 保罗·维里里奥

当你制造一样东西时,你也要对人们对其的应用负部分责任。作为开发者,我们对上述所有负面事物——偏见、成本、可信度都负有责任。

很容易(也是错误的)认为AI的发展是由硅谷的开发人员在远处进行的,我们对此影响甚微。尽管如此,维里里奥的引述涵盖了远远超出这个范畴,包括我们所开发和推荐的所有技术。我们每天都会遇到新的、未经测试的想法。从软件更新中的新功能到大型科技公司推出的新SAAS产品,伴随着惊人的广告宣传,承诺改变一切。

对于AI的现实态度不应该让我们脱离对其他一切的现实和务实。那个闪亮的新SAAS产品真的准备好了吗?我一定要使用这个新的架构吗?技术从来不是完美的解决方案。我的工作涉及与机器狗一起工作,但是我很痛苦地承认,也许(只是也许)它们并没有那么有用。

谢谢你的阅读!你也可以在这里联系我:领英,或者看一下我参与的通讯

\

Leave a Reply

Your email address will not be published. Required fields are marked *