Press "Enter" to skip to content

59 search results for "检索增强生成 (RAG)"

使用Amazon SageMaker Studio与Llama 2、LangChain和Pinecone来构建一个RAG问答解决方案,以便进行快速实验

检索增强生成(RAG)允许您为大型语言模型(LLM)提供对外部知识源(如资料库、数据库和API)的访问权限,而无需对模型进行精细调节在使用生成型人工智能进行问答时,RAG使得LLM能够以最相关、最新的信息来回答问题,并可选择引用[…].

Leave a Comment

LLM革命:改变语言模型

介绍 在过去几年中,语言模型领域经历了一场巨大的演变,特别是随着大规模语言模型(LLMs)的出现。这些模型具备数十亿个参数和对自然语言的深刻理解,对于改变人工智能领域起到了关键作用。今天,我们将探索这场革命,重点介绍从闭源到开源LLMs的转变,精细调整的重要性以及最近出现的高效调整技术的发展。 学习目标: 了解闭源和开源LLMs的区别。 了解LLMs中的传统和参数高效调整。 探索不同的参数高效调整策略。 学习使用Ludwig进行高效调整。 闭源vs开源LLMs:选择正确的方法 语言模型领域存在着闭源模型(如OpenAI的ChatGPT、GPT 3.5和GPT 4)和开源变种(如Meta、Google和各种研究实验室提供的)之间的两极分化。闭源LLMs由于其管理基础设施和快速概念验证能力,成为一个引人注目的起点。这些模型提供高质量的预训练数据集,并且无需设置基础设施,使得那些探索LLMs能力的人可以轻松入门。 然而,尽管闭源LLMs易于获取,但它们存在根本性的局限性。它们缺乏模型所有权和极少的自定义能力,特别是对于数据隐私和模型控制至关重要的领域,这使得闭源LLMs不太适合长期投资。相比之下,开源LLMs提供了一个有希望的替代方案。它们使得完全拥有模型和自定义成为可能,并便利地获得开源空间中的创新发展。而付出的代价则是主机费用和困难。 传统微调和参数高效微调 微调成为了最大化LLMs潜力的关键过程,特别是考虑到特定领域任务的情况下。闭源模型常常缺乏所需的灵活性进行微调,而开源模型则可以完全控制这个过程。微调允许通过更新模型权重将预训练的LLMs适应于特定任务,从而提高性能。这是将这些通用模型个性化为专用应用的手段,为独特任务优化性能。 关于微调和类似检索增强生成(RAG)模型之间的辩论,重点在于是否需要针对具体任务进行定制的模型,而非通用智能模型。开源LLMs的性质允许自定义和高效微调以实现卓越的任务特定性能。 传统微调涉及更新所有模型参数,这一过程已被证明是资源密集型、耗时且不总能获得最佳的任务特定性能。然而,参数高效微调的最新创新取得了突破。通过冻结预训练LLM并仅训练一小部分特定任务层(不到总模型权重的1%),高效微调变得既节约资源又更有效。 向参数高效微调的转变显著影响了LLMs如何适应特定任务。通过仅关注训练少量特定任务层,这个过程变得更具成本效益和高效性。这种创新方法在较小数据集上实现了最佳任务特定性能,展示了开源LLMs相对于闭源模型的潜力。 Meta等人的LIMA论文等研究支持了在较小数据集上进行微调可以超越GPT 4等闭源模型性能的观点。这种通过较少数据实现更多的概念的概念突出了开源LLMs在适当微调下的效率和效果。 理解高效训练策略 在利用预训练模型进行特定任务时,LoRA(低秩自适应)和QLoRA(量化低秩自适应)已经成为有效微调大型语言模型(LLMs)的创新方法。这些方法对于将预训练模型定制为专用任务而最小化附加参数非常重要。 LoRA:对体系结构的深入研究 LoRA的体系结构涉及低秩分解,通过将变压器架构中的大型权重矩阵分解为较小矩阵来实现。在变压器的上下文中,LoRA专注于查询,键和值线性投影。 通常,这些线性投影具有大的权重矩阵,例如1024×1024,LoRA将其分解为较小的矩阵,例如1024×8和8×1024。这些较小的矩阵相乘,可以产生原始的维度。这种压缩大大减少了可调参数的数量,约为总LLM参数的一半到1%。 在变压器体系结构的上下文中,LoRA为键和查询投影层集成了适配器模块。这些通过低秩分解构造的适配器保持了原始形状,同时使其能够插入到变压器层中。基本层保持冻结状态,只有适配器权重是可训练的。…

Leave a Comment

了解亚马逊药店如何使用亚马逊SageMaker创建了他们基于LLM的聊天机器人

亚马逊药房是亚马逊网站上的一家全方位药房,提供透明的定价、临床和客户支持,以及免费将药品送到您的门口客户服务代理在快速准确地获取与药房信息相关的信息方面起着至关重要的作用,包括处方澄清和转移状态、订单和发药详细信息以及患者信息

Leave a Comment

出色表现:基于RTX的大型语言模型使用TensorRT-LLM在Windows上提速4倍

生成式人工智能 是个人计算历史上最重要的趋势之一,为游戏、创作、视频、生产力、开发等领域带来了进步。 GeForce RTX 和搭载了专用AI处理器Tensor Cores的NVIDIA RTX GPU,正在原生地将生成式人工智能的能力带到超过1亿台Windows PC和工作站上。 如今,在Windows上通过TensorRT-LLM获得的生成式人工智能速度提高了4倍,该开源库可加速最新的AI大型语言模型(如Llama 2和Code Llama)的推理性能。上个月,TensorRT-LLM发布了适用于数据中心的版本。 NVIDIA还发布了帮助开发者加速LLMs的工具,包括使用TensorRT-LLM优化自定义模型的脚本、经过TensorRT优化的开源模型以及展示LLM响应的速度和质量的开发者参考项目。 现在,通过Automatic1111发布的稳定扩散式混合生成式人工智能在流行的Web UI中提供TensorRT加速,它的速度比之前最快版本快2倍。 此外,RTX Video Super Resolution (VSR) 1.5版本已经作为今天的Game Ready Driver发布的一部分,也将在下个月初发布的NVIDIA Studio Driver中提供。…

Leave a Comment

创建一个生成式人工智能网关,以实现对基础模型的安全合规消费

在快速发展的人工智能(AI)和机器学习(ML)领域中,基础模型(FMs)表现出巨大的创新潜力和解锁新的用例然而,随着组织越来越多地利用FMs的力量,与数据隐私、安全性、额外成本和合规性相关的担忧变得至关重要受监管和合规导向的行业,例如金融服务行业,[…]

Leave a Comment

AWS中的生成式人工智能和多模态代理:解锁金融市场中的新价值的关键

多模态数据是金融行业的宝贵组成部分,包括市场、经济、客户、新闻和社交媒体以及风险数据金融机构生成、收集和使用这些数据来获得对金融业务的洞察,做出更好的决策和提高绩效然而,由于多模态数据的复杂性和缺乏…,存在一些挑战

Leave a Comment

学习如何使用AWS SageMaker JumpStart基础模型构建和部署使用工具的LLM代理

大型语言模型(LLM)代理是将独立的LLM的功能扩展到以下两个方面的程序:1)访问外部工具(API、函数、Webhook、插件等),2)能够自主计划和执行任务通常,LLM需要与其他软件、数据库或API进行交互以完成复杂任务[…]

Leave a Comment

使用@remote装饰器在Amazon SageMaker上微调Falcon 7B和其他LLMs

今天,生成式人工智能模型涵盖了各种任务,包括文本摘要、问答以及图像和视频生成为了提高输出的质量,采用了一些方法,如N-Short学习、提示工程、检索增强生成(RAG)和微调微调允许您调整这些生成式人工智能模型,以在您的领域特定的任务上实现更好的性能

Leave a Comment

使用Amazon SageMaker JumpStart,利用生成式AI和RAG构建安全的企业应用程序

在这篇文章中,我们使用AWS Amplify构建了一个安全的企业应用程序,该应用程序调用了Amazon SageMaker JumpStart基础模型、Amazon SageMaker端点和Amazon OpenSearch服务,以解释如何创建文本到文本或文本到图像以及检索增强生成(RAG)您可以使用本文作为参考,使用AWS服务在生成AI领域构建安全的企业应用程序

Leave a Comment

在Amazon SageMaker上使用LLMs实现智能视频和音频问答,并提供多语言支持

在日益数字化的世界中,数字资产是企业产品、服务、文化和品牌身份的重要视觉表现数字资产与记录的用户行为一起,可以通过提供互动和个性化体验来促进客户参与,使公司能够与目标受众更深入地连接高效地发现和搜索特定的数字资产[…]

Leave a Comment

使用Haystack流水线和Amazon SageMaker JumpStart构建适用于企业搜索的生产就绪的生成式AI应用程序,使用LLMs

在这篇文章中,我们展示了如何使用Haystack pipelines和来自Amazon SageMaker JumpStart和Amazon OpenSearch Service的Falcon-40b-instruct模型,构建一个端到端的生成式AI应用程序,用于企业搜索,并加以检索增强生成(RAG)

Leave a Comment

使用Amazon SageMaker上的OpenChatkit模型构建自定义聊天机器人应用程序

开源的大型语言模型(LLMs)变得越来越流行,使研究人员、开发人员和组织能够访问这些模型以促进创新和实验这鼓励开源社区的合作,以贡献于LLMs的发展和改进开源LLMs提供了模型架构、训练过程和训练数据的透明度,这使得研究人员能够理解[…]

Leave a Comment

Can't find what you're looking for? Try refining your search: