Press "Enter" to skip to content

18 search results for "Flan T5 XL"

“解锁LangChain和Flan-T5 XXL | 高效文档查询指南”

介绍 大型语言模型(LLMs)是一类特定的人工智能模型,旨在理解和生成类似于人类的文本。术语“大型”通常通过它们拥有的参数数量来量化。例如,OpenAI的GPT-3模型有1750亿个参数。可以将其用于各种任务,例如文本翻译、回答问题、写作论文、总结文本。尽管有很多资源展示了LLMs的能力,并提供了有关如何设置聊天应用程序的指导,但很少有人深入研究它们在现实业务场景中的适用性。在本文中,您将学习如何使用LangChain和Flan-T5 XXL构建基于大型语言的应用程序来创建文档查询系统。 学习目标 在深入研究技术细节之前,让我们确定本文的学习目标: 了解如何利用LangChain构建基于大型语言的应用程序 简要介绍文本到文本框架和Flan-T5模型 如何使用LangChain和任何LLM模型创建文档查询系统 现在让我们深入了解这些部分,以理解每个概念。 本文是Data Science Blogathon的一部分。 LangChain在构建LLM应用程序中的作用 LangChain框架旨在开发各种应用程序,例如聊天机器人、生成式问答(GQA)和摘要,以发挥大型语言模型(LLMs)的能力。LangChain为构建文档查询系统提供了全面的解决方案。这涉及通过分块对语料库进行预处理,将这些块转换为向量空间,在提出查询时识别相似块,并利用语言模型将检索到的文档细化为合适的答案。 Flan-T5模型概述 Flan-T5是谷歌研究人员开发的一种商业可用的开源LLM。它是T5(文本到文本转换Transformer)模型的变体。T5是一种先进的语言模型,它通过将NLP任务转换为基于文本的格式来训练。FLAN是Finetuned Language Net的缩写。 让我们深入构建文档查询系统 我们可以利用LangChain和Flan-T5 XXL模型在Google Colab的免费版中构建此文档查询系统。要在Google Colab中执行以下代码,我们必须选择“T4 GPU”作为我们的运行时。按照以下步骤构建文档查询系统: 1:导入必要的库…

Leave a Comment

Google AI开源Flan-T5:一种基于Transformer的语言模型,使用文本到文本的方法进行自然语言处理任务

大型语言模型,例如PaLM、Chinchilla和ChatGPT,为从阅读教学线索执行自然语言处理(NLP)任务开辟了新的可能性。先前的研究表明,指令调整,即在各种带有指令的NLP任务上微调语言模型,进一步提高了语言模型在给定指令的情况下执行未知任务的能力。通过比较它们的微调过程和策略,本文评估了开源指令泛化倡议的方法和结果。 该工作关注指令调整方法的细节,对各个因素进行剔除并直接进行比较。他们在“Flan 2022 Collection”中确定并评估了方法论改进,该术语用于数据收集以及适用于数据和指令调整过程的方法,重点关注将Flan 2022与PaLM 540B结合的新兴和最先进的结果。Flan 2022 Collection目前是公开可用的最全面的指令调整作业和技术集合,它已经通过数千个高级模板和更好的格式模式进行了扩充。 他们证明,在所有评估的评估基准上,训练在该集合上的模型优于其他公开集合,包括原始的Flan 2021、T0++、Super-Natural Instructions和OPT-IML的当代工作。对于具有相同大小的模型,MMLU和BIG-Bench Hard评估基准上的改进分别达到4.2%+和8.5%。根据对Flan 2022方法的分析,这些稳健的结果是由于更大更多样的任务集合以及用于微调和数据增强的几种简单策略。特别是,使用零样式、少样式和思考链的模板进行训练改善了所有这些上下文中的性能。 例如,少样式提示的增加10%可以将零样式提示的结果提高2%或更多。此外,已经证明,通过倒置输入-输出对,在任务来源的平衡和任务多样性的增强方面都对性能至关重要。在单任务微调中,得到的Flan-T5模型收敛更快,表现优于T5模型,表明经过指令调整的模型为后续应用提供了更具计算效率的起点。他们预计,公开提供这些结果和工具将简化用于指令定制的可用资源,并加快更通用的语言模型的发展。 本研究的主要贡献如下列举:• 方法论:证明混合使用零样式和少样式提示进行训练在两种环境中都能产生显著优越的结果。• 测量和展示有效指令调整的关键方法,包括缩放第3.3节,使用输入倒置增强任务多样性,添加思考链训练数据以及平衡各种数据来源。• 结果:这些技术决策相对于现有的开源指令调整集合,提高了保留任务性能3-17% • 发现:Flan-T5 XL为单任务微调提供了更稳健和有效的计算起点。• 公开提供新的Flan 2022任务集合、模板和研究方法供公众使用。源代码可在GitHub上获取。

Leave a Comment

在Amazon SageMaker JumpStart中通过两行代码部署和优化基础模型

我们非常高兴地宣布推出了简化版的Amazon SageMaker JumpStart SDK,它能够轻松构建、训练和部署基础模型预测代码也得到了简化在本文中,我们将演示如何使用简化版SageMaker Jumpstart SDK只需几行代码便能开始使用基础模型

Leave a Comment

创新促进包容性:使用Amazon SageMaker进行Hack.The.Bias

这篇文章是与丹尼埃莱·基亚帕鲁皮(Daniele Chiappalupi)合著的,他是苏黎世联邦理工学院AWS学生黑客马拉松团队的成员每个人都可以通过使用Amazon SageMaker JumpStart轻松入门机器学习(ML)在本文中,我们将向您展示一个大学黑客马拉松团队如何使用SageMaker JumpStart快速构建一个帮助用户识别和删除的应用程序[…]

Leave a Comment

使用Amazon SageMaker JumpStart,利用生成式AI和RAG构建安全的企业应用程序

在这篇文章中,我们使用AWS Amplify构建了一个安全的企业应用程序,该应用程序调用了Amazon SageMaker JumpStart基础模型、Amazon SageMaker端点和Amazon OpenSearch服务,以解释如何创建文本到文本或文本到图像以及检索增强生成(RAG)您可以使用本文作为参考,使用AWS服务在生成AI领域构建安全的企业应用程序

Leave a Comment

通过检索增强生成,提升您的稳定扩散提示

文字到图像生成是一门快速发展的人工智能领域,应用广泛,包括媒体与娱乐、游戏、电子商务产品可视化、广告与营销、建筑设计与可视化、艺术创作和医学影像等各个领域稳定扩散是一种文字到图像模型,让您能够在几秒钟内创建高品质的图片在十一月份[…]

Leave a Comment

通过使用来自Amazon SageMaker JumpStart的Pinecone向量数据库和Llama-2进行检索增强生成技术来缓解幻觉

尽管在各个行业中,似乎无法阻挡的对LLM的采用,但它们只是整个技术生态系统中的一个组成部分,为新的AI浪潮提供动力许多对话型AI应用需要LLM,如Llama 2、Flan T5和Bloom,以回答用户的查询这些模型依赖参数化知识来回答问题模型[…]

Leave a Comment

扩展基于亚马逊SageMaker的数百种模型的基础模型推断-第一部分

随着粉底模型(FM)的民主化越来越普遍,并且对AI增强服务的需求不断增加,软件即服务(SaaS)提供商正在寻求使用支持多租户的机器学习(ML)平台,以便为他们组织内部的数据科学家和外部客户提供服务越来越多的公司意识到使用FM来生成[…]的价值

Leave a Comment

斯坦福大学的研究人员引入了Gisting:一种用于语言模型中高效提示压缩的新技术

模型专业化涉及将预训练的机器学习模型适应特定的任务或领域。在语言模型(LMs)中,模型专业化对于改进其在摘要、问答、翻译和语言生成等各种任务中的性能至关重要。将语言模型专门用于特定任务的两个主要过程是指令微调(将预训练模型适应新任务或任务集)和模型蒸馏(从预训练的“教师”模型转移知识到更小、专门的“学生”模型)。提示是LM专业化领域的一个关键概念,因为它提供了引导模型朝特定行为的方式,允许更有效地使用有限的训练数据,并且对于实现最先进的性能至关重要。压缩提示是一种研究中的技术,希望能够在计算、内存和存储方面节省大量开销,同时不会对输出的总体性能或质量产生显著降低。 本文由斯坦福大学的研究人员提出,提出了一种名为gisting的提示压缩新技术,该技术训练了一个LM将提示压缩为更小的“要点”标记集。为了降低提示的成本,可以使用微调或蒸馏等技术训练一个模型,该模型的行为类似于没有提示的原始模型,但在这种情况下,模型必须针对每个新提示进行重新训练,这远非理想。然而,gisting的思想是使用元学习方法从提示中预测要点标记,这不需要为每个任务重新训练模型,并且可以在没有额外训练的情况下实现对未见指令的泛化。这将降低计算成本,并允许压缩、缓存和重用提示以提高计算效率。它还允许用户在有限的上下文窗口中容纳更多内容。 作者们尝试了一种实现这种模型的简单方法-他们使用LM本身(利用其现有的知识)在指令微调过程中预测要点标记,同时修改Transformer注意力掩码。给定一个(任务、输入)对,他们在任务和输入之间添加要点标记,并将注意力掩码设置如下:要点标记之后的输入标记不能与要点标记之前的任何提示标记关联(但它们可以与要点标记关联)。由于输入和输出不能参考提示,这迫使模型将提示中的信息压缩到要点标记之间。为了训练要点模型,他们需要一个包含各种任务的数据集,因此他们创建了一个称为Alpaca+的数据集,该数据集结合了两个现有的指令微调数据集(斯坦福Alpaca和Self-Instruct),总共超过130k个示例。然后,他们保留了3个验证拆分,以便在训练后验证模型,其中包括已见、未见和手工制作的人类提示。通过这种方式,他们能够测试对未见指令的泛化性能,其中人类拆分提出了更强的泛化挑战。他们还使用了多种LM架构(即LLaMA-7Bm、仅解码器的GPT风格模型和FLAN-T5-XXL),并使用不同数量的要点标记(1、2、5或10)训练要点模型。然而,结果显示,模型对于要点标记的数量通常不敏感,有些情况下甚至显示出更多标记实际上对性能有害。因此,他们在后续实验中使用了单个要点模型。 为了评估提示压缩的质量,他们将性能与正面控制进行了校准,正面控制实际上是标准指令微调,它提供了性能的上限,并且负面控制中模型完全无法访问指令,导致生成随机要点标记,这提供了性能的下限。为了将模型的输出与正面控制进行比较并测量胜率,他们要求ChatGPT选择哪个响应更好,并解释其推理过程。他们还使用了一个称为ROUGE-L的简单词汇重叠统计指标(用于衡量生成文本与人类编写的指令之间的相似性)。50%的胜率表示模型的质量与不进行提示压缩的模型相当。 研究结果显示,在已见指令上,概要模型的胜率非常接近正向对照模型,LLaMA为48.6%,FLAN-T5为50.8%。更重要的是,他们能够表明概要模型在未见提示上具有竞争力的泛化能力,LLaMA为49.7%,FLAN-T5为46.2%。只有在最具挑战的人类分割上,他们的胜率略微下降(但仍具竞争力),LLaMA为45.8%,FLAN-T5为42.5%。FLAN-T5的表现稍差以及特定的失败案例为未来的研究提供了更多的假设。 研究人员还调查了通过概要提取可能实现的效率提升。结果非常令人鼓舞,概要缓存导致FLOPs减少40%,墙上时钟时间比未优化的模型降低4-7%。尽管这些改进在仅有解码器的语言模型中较小,研究人员还证明了概要模型使未见提示的压缩率提高了26倍,为输入上下文窗口提供了相当大的额外空间。 总的来说,这些发现说明了概要提取对于增强专用语言模型的有效性和效率的巨大潜力。作者还提出了几个有前途的概要提取后续工作方向。例如,他们指出,从概要提取中获得的最大计算和效率收益将来自于对更长提示的压缩,并且“概要预训练”可以通过首先学习压缩任意自然语言段落来改善压缩性能。

Leave a Comment

使用Amazon SageMaker JumpStart在VPC模式下,无需互联网连接,使用生成式AI基础模型

随着生成式人工智能的最新进展,关于如何将生成式人工智能应用于不同行业以解决特定业务问题的讨论越来越多生成式人工智能是一种可以创建新内容和想法的人工智能类型,包括对话、故事、图像、视频和音乐所有这些都由非常庞大的模型所支持[…]

Leave a Comment

符号调整改善语言模型中的上下文学习

由谷歌研究的学生研究员Jerry Wei和首席科学家Denny Zhou发布 人类智能的一个关键特征是人类可以通过只使用少数示例来学会执行新任务的推理。扩展语言模型解锁了机器学习中一系列新的应用和范例,包括通过上下文学习执行具有挑战性的推理任务的能力。然而,语言模型仍然对提示的方式敏感,表明它们并不是以稳健的方式进行推理。例如,语言模型通常需要大量的提示工程或将任务构建为指令的方式,并且它们表现出意外的行为,如在显示错误标签时对任务的表现不受影响。 在“符号调优改进语言模型中的上下文学习”中,我们提出了一种简单的微调过程,称为符号调优,它可以通过强调输入-标签映射来改进上下文学习。我们在Flan-PaLM模型中尝试了符号调优,并观察到在各种设置下都有益处。 符号调优提高了对未见过的上下文学习任务的表现,并且对于未明确指定的提示(例如没有指令或没有自然语言标签的提示)更加稳健。 符号调优的模型在算法推理任务上表现更强。 最后,符号调优的模型在使用上下文信息来覆盖先前知识时,对于翻转标签呈现的任务有很大的改进。 符号调优的概述,其中模型在任务中使用任意符号代替自然语言标签进行微调。符号调优依赖于这样的直觉,即当没有指令和相关标签可用时,模型必须使用上下文示例来学习任务。 动机 指令调优是一种常见的微调方法,已经证明可以提高性能并使模型能够更好地遵循上下文示例。然而,一个缺点是模型并不强制学会使用这些示例,因为在评估示例中通过指令和自然语言标签重复定义了任务。例如,在上图左侧,虽然示例可以帮助模型理解任务(情感分析),但它们并不是严格必要的,因为模型可以忽略示例,只需阅读指示表明任务是什么。 在符号调优中,模型在示例上进行微调,其中移除了指令,并用语义不相关的标签(例如“Foo”,“Bar”等)替换了自然语言标签。在这种设置下,不查看上下文示例的情况下任务是不清楚的。例如,在上图右侧,需要多个上下文示例才能弄清楚任务。因为符号调优教会模型在上下文示例之间和它们的标签之间进行推理,所以符号调优的模型在需要在上下文示例和标签之间进行推理的任务上应该有更好的表现。 用于符号调优的数据集和任务类型。 符号调整过程 我们选择了22个公开可用的自然语言处理(NLP)数据集,用于我们的符号调整过程。这些任务过去被广泛使用,我们只选择了分类类型的任务,因为我们的方法需要离散标签。然后,我们将标签重新映射到从三个类别中选择的约30K个任意标签集中的随机标签:整数、字符组合和单词。 在我们的实验中,我们对Flan-PaLM进行符号调整,这是PaLM的指令调整变体。我们使用了三种不同大小的Flan-PaLM模型:Flan-PaLM-8B、Flan-PaLM-62B和Flan-PaLM-540B。我们还测试了Flan-cont-PaLM-62B(Flan-PaLM-62B使用1.3T个标记而不是780B个标记),我们将其缩写为62B-c。 我们使用了来自三个类别(整数、字符组合和单词)的约300K个任意符号。其中约30K个符号用于调整,其余的符号用于评估。 实验设置 我们希望评估模型在未见过的任务上的表现能力,因此不能在符号调整(22个数据集)或指令调整(1.8K个任务)中评估。因此,我们选择了11个在微调过程中未使用的NLP数据集。 上下文学习 在符号调整过程中,模型必须学会通过上下文示例进行推理,以成功执行任务,因为提示被修改以确保任务不能简单地从相关标签或指令中学习。符号调整的模型应在任务不明确且需要在上下文示例和其标签之间进行推理的情况下表现更好。为了探索这些情况,我们定义了四种上下文学习设置,这些设置根据输入和标签之间的推理量(基于指令/相关标签的可用性)来学习任务。 根据指令和相关自然语言标签的可用性,模型可能需要对上下文示例进行不同程度的推理。当这些特征不可用时,模型必须通过给定的上下文示例进行推理以成功执行任务。 符号调整改善了62B及更大模型在所有设置下的性能,在具有相关自然语言标签的设置中略有改进(+0.8%至+4.2%),在没有相关自然语言标签的设置中有显著改进(+5.5%至+15.5%)。令人惊讶的是,当相关标签不可用时,符号调整的Flan-PaLM-8B的性能超过了FlanPaLM-62B,而符号调整的Flan-PaLM-62B的性能超过了Flan-PaLM-540B。这种性能差异表明,符号调整可以使较小的模型在这些任务上表现得和大型模型一样好(有效地节省了约10倍推理计算量)。 大型符号调整模型在上下文学习方面比基线模型表现更好,特别是在没有相关标签的情况下。性能以十一个任务的平均模型准确率(%)显示。 算法推理…

Leave a Comment

使用AWS Inferentia2加速Hugging Face Transformers

在过去五年中,Transformer模型[1]已成为许多机器学习(ML)任务的事实标准,例如自然语言处理(NLP)、计算机视觉(CV)、语音等。如今,许多数据科学家和ML工程师依赖于流行的Transformer架构,如BERT[2]、RoBERTa[3]、Vision Transformer[4]或Hugging Face Hub上提供的130,000多个预训练模型,以实现拥有最先进准确性的复杂业务问题的解决方案。 然而,尽管它们的伟大之处,但在生产环境中部署Transformer模型可能具有挑战性。除了通常与模型部署相关的基础设施问题,我们主要通过我们的Inference Endpoints服务解决了这个问题,Transformer是大型模型,其通常超过多GB的标记。大型语言模型(LLM)如GPT-J-6B、Flan-T5或Opt-30B可达数十GB,更不用说像BLOOM这样的巨无霸,我们自家的LLM,其大小达到350GB。 将这些模型适配到单个加速器上可能非常困难,更不用说获得应用程序所需的高吞吐量和低推理延迟,如对话应用程序和搜索。迄今为止,ML专家已经设计了复杂的手动技术来切分大型模型,在加速器集群上分发它们,并优化其延迟。不幸的是,这项工作非常困难、耗时,并且对许多ML从业者来说是无法企及的。 在Hugging Face,我们正在普及ML,并始终寻求与那些相信每个开发者和组织都应受益于最先进模型的公司合作。为此,我们很高兴与亚马逊网络服务(AWS)合作,为AWS Inferentia 2优化Hugging Face Transformers!这是一种新型的用于推断的专用加速器,具有前所未有的吞吐量、延迟、每瓦性能和可扩展性。 介绍AWS Inferentia2 AWS Inferentia2是2019年推出的Inferentia1的下一代。由Inferentia1提供动力,Amazon EC2 Inf1实例的吞吐量比基于NVIDIA A10G GPU的可比G5实例高25%,成本低70%,而Inferentia2则再次突破界限。 新的Inferentia2芯片相比Inferentia提供了4倍的吞吐量增加和10倍的延迟降低。同样,新的Amazon EC2 Inf2实例的吞吐量最多提高2.6倍,延迟降低8.1倍,性能每瓦提高50%,优势明显。Inferentia 2将为您提供最佳的两个方面:高吞吐量的推理成本优化和低推理延迟的应用程序响应时间。…

Leave a Comment

介绍适用于Amazon SageMaker的Hugging Face LLM推理容器

这是一个关于如何使用新的Hugging Face LLM Inference Container将开源LLMs(如BLOOM)部署到Amazon SageMaker进行推理的示例。我们将部署12B Pythia Open Assistant Model,这是一个使用Open Assistant数据集训练的开源Chat LLM。 示例内容包括: 设置开发环境 获取新的Hugging Face LLM DLC 将Open Assistant 12B部署到Amazon SageMaker 运行推理并与我们的模型聊天 创建由Amazon SageMaker支持的Gradio…

Leave a Comment

宣布在Amazon SageMaker上推出新的Hugging Face LLM Inference容器

这篇文章是由 Philipp Schmid 和 Jeff Boudier 与 Hugging Face 共同撰写的作为亚马逊网络服务与 Hugging Face 的合作伙伴关系的一部分,我们很高兴地宣布发布一款新的 Hugging Face 深度学习容器 (DLC),用于对大型语言模型 (LLM) 进行推理这个新的 Hugging Face LLM DLC 是由…

Leave a Comment

探索生成式人工智能在对话体验中的应用:使用亚马逊Lex、Langchain和SageMaker Jumpstart进行介绍

在当今快节奏的世界中,客户期望企业提供快速高效的服务但当询问量超过了用于解决它们的人力资源时,提供优质客户服务可能会面临重大挑战然而,随着生成式人工智能(生成[…])的进步,企业可以在提供个性化和高效的客户服务的同时应对这一挑战

Leave a Comment

Can't find what you're looking for? Try refining your search: