Press "Enter" to skip to content

“从AI到生成式AI的旅程及其工作原理”

在过去几年中,前沿技术和服务已经大大改变了它们的方向、动态和用途。很明显,最近全球技术采用的浪潮被人工智能(AI)及其各种变体所淹没。AI越来越多地融入到我们日常生活的方方面面,改变了我们的生活和工作方式。本文将讨论AI/ML的基础知识、使用方法、生成AI、提示工程和LangChain的演变。

什么是AI和ML?

AI是模拟人类智能和思维过程(如学习和问题解决)的能力。它可以执行历史上只能由人类完成的复杂任务。通过AI,非人类系统使用数学和逻辑方法来模拟人们学习新信息和做出决策的推理过程。

人工智能具有广泛的能力,开启了各种有影响力的现实应用。当今最常用的一些AI能力包括模式识别、预测建模、自动化、图像识别和个性化。在某些情况下,先进的AI甚至可以驱动汽车或玩象棋或围棋等复杂游戏。

机器学习是AI的一个子集,它使用在数据上训练的算法来生成执行这些复杂任务的模型。如今,大多数AI都是使用机器学习来完成的,所以AI和ML这两个术语经常被用作同义词。一个微妙的区别是:AI指的是使用计算机软件和系统创造类似人类认知的一般概念,而ML只是实现这一目标的一种方法。ML使计算机系统能够根据经验继续学习和改进。

益处

AI和ML为企业和消费者带来各种各样的益处。企业可以预期降低成本和提高运营效率,消费者可以期待更个性化的服务和建议。一些关键的好处包括:

  • 通过数学模型处理大量多样的数据并预测可行的见解,从而降低运营和支持成本。
  • 改进MTTR(平均修复时间)和改进/超出RTO目标。
  • 提高客户满意度和能够根据个性化客户需求进行定制的体验。

什么是生成AI?

生成AI(常被称为GenAI)使用一组算法,使用户能够根据各种输入快速生成新内容。生成的内容包括但不限于文本、图像、音轨和视频。这些算法是建立在训练有广阔无标签数据的大型语言模型之上的。生成AI模型的突破之一是能够利用不同的学习方法,包括无监督或半监督学习进行训练。

传统AI与生成AI的区别

传统AI和生成AI之间的主要区别在于它们的能力和应用。传统AI擅长于模式识别,而生成AI擅长于模式创建。传统AI可以分析数据并告诉你它看到了什么,但生成AI可以利用相同的数据创造出全新的东西。GenAI和人工智能都使用机器学习算法来获得结果。然而,它们有不同的目标和用途。

FM和LLM

基础模型(FM)

基础模型作为更具体应用的基础。它们是旨在产生各种广泛和普遍的输出的AI模型。它们能够执行一系列可能的任务和应用,例如文本、图像或音频生成。换句话说,原始模型提供了一个基础(因此称为“foundation”),其他东西可以在其上构建。基础模型的典型示例包括许多列为LLM的相同系统。

大语言模型

大语言模型(LLM)是一种使用深度学习算法和神经网络技术来处理和理解自然语言的机器学习模型。这些模型通过大量文本数据进行训练,以学习语言中的模式和实体关系。它们是通过自我监督学习和半监督学习使用数十亿数据进行预训练的。这些模型可以捕捉到手头文本中的复杂实体关系,并使用该特定语言的语义和语法生成文本。LLM的常见用途包括文本生成、机器翻译、摘要写作、从文本生成图像、机器编码、聊天机器人或对话式人工智能。

大语言模型(LLM)属于基础模型的一种。而语言模型接受语言输入并生成合成输出,基础模型处理多种数据类型。它们是多模态的,意味着它们可以在语言之外的其他模式下工作。

很多时候,“基础模型(FM)”常常与“大型语言模型(LLM)”同义使用,因为语言模型目前是具有广泛能力且可以适应特定目的的系统的最明确的示例。这些术语之间的相关区别在于,“大型语言模型”特指以语言为重点的系统,而“基础模型”试图确立一个更广泛的基于功能的概念,未来可以扩展以适应新类型的系统。

GenAI的工作原理

生成式人工智能由大型语言模型(LLM)和基础模型(FM)组成,这些机器学习模型在大量数据上进行了预训练。

注意:本文专门针对LLM及其与生成式人工智能的相关性。

“大型”一词指的是模型可以自主更改的值(参数)的数量。一些成功的LLM模型具有数万亿个参数。

它使用自监督和/或无监督学习来预测给定上下文中的下一个标记。LLM模型通常采用基于Transformer的架构,使用自注意机制来计算输入序列的加权和,动态确定序列中哪些标记与彼此最相关。这有助于识别句子中单词之间的关系,而不考虑它们在文本序列/句子中的位置。

LLM用于少样本和零样本场景。少样本(非常有限的标记数据)和零样本(没有标记数据)的方法都要求AI模型具有良好的归纳偏差和从有限(或没有)数据中学习有用表示的能力。

LLM的定价

生成式AI和支持模型的使用费用基于其接收的输入量和生成的输出量计费。不同的LLM提供商以不同的方式定价其模型和数据量,有些是以标记为单位,有些是以字符为单位,但这些概念之间仍然相关。标记是一个单位,大约表示四个字符。字符是一个单独的字母、数字或符号。例如,单词“足球运动员”有八个字符,可能略大于两个标记。通常基于每1K标记或字符进行定价。

LLM的核心组件

  • 输入数据:大量非结构化数据
  • 标记化:将文本文档分解为称为标记的较小单元 – 标记器在文本和整数列表之间进行映射。目标是将非结构化文本文档转换为适用于预测性和/或规范性分析的数值数据。标记器通常只输出范围为{0,1,2,..V}的整数,其中V称为其词汇表大小。标记器的另一个功能是文本压缩,以节省计算时间。
  • 嵌入:嵌入是表示模型处理和生成的标记的含义和上下文的数字的向量或数组。然后,将嵌入作为输入用于NLP模型,使模型能够理解文本中单词的含义。
  • Transformer:它使LLM能够使用自注意机制理解和识别单词和概念之间的关系和连接。该机制能够为给定的项(称为标记)分配一个常称为权重的分数,以确定关系。Transformer由两部分组成 – 编码器和解码器。这两部分可以独立或一起使用 – 仅编码器、仅解码器、编码器-解码器。Transformer在编码器侧使用自注意力机制,在解码器侧使用注意力机制。

行业中的生成式AI

在每个行业使用案例中实现生成式AI需要结合不同的LLM / FM和底层模型。以下是一些使用案例:

  • 媒体和娱乐:为各种范围带来更多创造力,从视频游戏到电影、动画、世界构建和虚拟现实。
  • 汽车行业:根据设计师给出的一些文本描述构建用于模拟和设计汽车的3D模型。此外,生成式AI可以创建合成数据以训练自动驾驶汽车。
  • 医疗保健行业:生成模型可以通过开发新的蛋白质序列来辅助药物研发。从医学研究人员的角度来看,自动化任务如记录、医学编码、医学成像和基因组分析也可以受益。
  • 图像生成:将文本转换为图像,并根据指定的设置、主题、风格或位置生成逼真的图像。
  • 语义图像到照片的转换:基于语义图像或草图,可以生成图像的逼真版本。
  • 音乐生成:生成式AI在音乐制作中也是有用的。音乐生成工具可以用于为广告或其他创意目的生成新颖的音乐素材。
  • 个性化内容创作:根据个人偏好、兴趣或回忆生成个性化内容(文本、图像、音乐等)。
  • 情感分析/文本分类:情感分析,也称为意见挖掘,使用自然语言处理和文本挖掘来解析书面材料的情感背景。
  • 代码生成:无需手动编码生成代码。可能需要非常少量的手动更新来部署代码,以优化开发周期。
  • 数据合成:生成类似于真实世界数据统计特性的合成数据,但不一定基于任何特定的真实世界数据点。
  • 聊天机器人和虚拟助手:以自然语言形式生成对用户输入的响应。通过对话界面(如聊天窗口或语音助手)为用户提供信息、回答问题或执行任务。
  • 内容摘要:生成式AI可以处理大型文档并提取有意义的摘要内容。这使得能够自动生成对政策文件、报告和立法更新的简明准确摘要。
  • 简化的药物发现和开发:通过计算模拟找到潜在的药物候选物,并测试其在动物的临床试验到人类的临床测试的功效,可以大大加速发现新药物的过程。

以下是一些最受欢迎的LLM:

提示工程

提示工程是开发提示(例如要问的问题)以更准确地引导LLM执行专门任务的艺术。这涉及将指令和上下文传递给语言模型以实现期望的输出。这是一种使用特定提示和推荐输出来改进LLM的AI工程技术,也是将输入精炼到各种生成型AI服务以生成文本或图像的过程。

提示可以分为两种类型:

  • 硬提示:由人类硬编码和手工制作
  • 软提示:由AI生成

软提示更适合提出复杂的问题。提示本身可以通过使用AI模型生成。提示工程已经成为AI工程师以高效使用语言模型的有用技能。

提示工程和工作方式

业务用户和运营专家越来越普遍地采用这种构建提示(相关问题)的技能,用于创建各种产品和应用的常见问题解答/故障排除。另一方面,GenAI和LLM一起被用来为这些提示提供精确的答案。主要有两种方法实现这一点。

首先,将提示问题发送给特定的LLM模型,运行模型并获得答案。LLM将使用模型并在可用数据(从互联网收集)上运行以提供最佳答案。然而,这可能导致产生错误或偏见,因为LLM可能没有在相关数据/输入/问题的上下文中进行训练。

其次,通过微调对LLM模型进行上下文化。这里的“上下文”一词指的是LLM应该参考用户正在处理的产品/领域的特定信息。整个LLM模型的微调是一项复杂且昂贵的工作。另一种方法是将特定的上下文(嵌入)外部馈送到LLM中,然后使用特定模型根据这些嵌入数据进行推理。

下面是通过嵌入进行提示工程的整体工作流程:

使用LangChain进行提示工程的示例

LangChain是一个用于构建强大的LLM驱动应用程序的开源框架。它提供了一组帮助用户通过API编码和集成LLM模型的库。它提供了用于提示模板和环境配置的各种类。LangChain本身并不提供模型,但它允许用户将其他LLM提供商的模型集成进来。LangChain通过提供开发者访问七个组件来增强LLM的功能,包括模式、模型、提示、索引、内存、链和代理。

下面是LangChain和提示的代码片段。

IBM和GenAI空间

随着生成型AI的发展和应用范围的指数增长,IT领导者们致力于通过基于AI和生成型AI构建的解决方案成为行业的领先者。根据市场研究和调查,客户最偏好的GenAI适用领域之一是ITSM(IT服务管理),旨在预测关键问题、问题避免、优化/降低运营支出以及提高MTTR和生产力。

生成型AI可以增强IT运维和服务管理(ITSM)的能力,尤其是在事故、问题、变更和配置管理的上下文中。生成型AI在ITSM中的成功应用将取决于对业务环境、管理的IT服务、ITSM流程以及它们之间的相互作用的深入理解。这种理解应该反映在AI系统的设计和实施中。除了选择正确的平台和AI模型外,生成型AI在IT运营中的成功还取决于拥有干净、高质量的数据以及管理、培训/调整和维护AI模型的技能。

IBM在基于AI的运营管理领域开发了多个资产,其中包括Watsonx和自定义模型的支持。这些资产与IBM Control Tower(用于ITSM工具、性能监控工具、DevSecOps和ALM工具的数据收集器、Watsonx定制AI/ML模型和可视化工具的组合)一起部署在多个客户端上。以下是一些使用案例:

  • 事件管理:利用生成式人工智能根据事件描述和其他属性自动优先级排序和路由事件。它还可以通过与历史事件进行类比来提供潜在解决方案。
  • 事件分类和优先级:通过分析事件的性质和历史数据,准确地对事件进行分类和优先级排序。这有助于更快地解决关键事件并更好地分配资源,提高平均修复时间。
  • 预测性事件管理:通过分析历史数据和当前系统健康状况,生成式人工智能可以预测潜在事件并提出预防措施。这有助于减少系统停机时间,提高服务可用性。
  • 问题管理:通过分析多个事件模式来识别潜在问题。它可以生成问题假设,并基于历史问题数据模拟一系列场景,帮助ITSM团队进行根本原因分析和问题解决。这在IT运营的ChatOps /虚拟战室中可以广泛使用——在这里,SMEs / SREs /支持团队会被自动引入并提供预测分析和解决方案。
Leave a Reply

Your email address will not be published. Required fields are marked *