Press "Enter" to skip to content

242 search results for "HuggingFace"

使用Amazon SageMaker JumpStart进行大规模的文本嵌入和句子相似度检索

在本文中,我们展示了如何使用SageMaker Python SDK进行文本嵌入和句子相似度的使用方法句子相似度涉及在通过LLM将两个文本片段转换为嵌入后,评估它们之间的相似程度,这是像检索增强生成(RAG)这样的应用的基础步骤

Leave a Comment

文本到图像革命:Segmind的SD-1B模型成为最快的游戏中的模型

介绍 Segmind AI 自豪地发布了 SSD-1B(Segmind Stable Diffusion 1B),这是一种具有颠覆性的开源文本到图像生成模型革命。这个闪电般快速的模型具有前所未有的速度、紧凑设计和高质量的视觉输出。人工智能在自然语言处理和计算机视觉方面取得了快速进展,并展示出重新定义界限的创新。由于其关键特征,SSD 1B 模型是计算机视觉的开拓之门。在这篇全面的文章中,我们深入探讨了该模型的特点、用例、架构、训练信息等等。 学习目标 探索 SSD-1B 的架构概述,了解它如何从专家模型中进行知识蒸馏。 通过在 Segmind 平台上使用 SSD-1B 模型进行快速推理和使用代码推理,获得实践经验。 了解下游用例,了解 SSD-1B 模型如何用于特定任务。 认识 SSD-1B 的局限性,特别是在实现绝对照片逼真度和在某些场景中保持文本清晰度方面。…

Leave a Comment

使用Amazon SageMaker Studio与Llama 2、LangChain和Pinecone来构建一个RAG问答解决方案,以便进行快速实验

检索增强生成(RAG)允许您为大型语言模型(LLM)提供对外部知识源(如资料库、数据库和API)的访问权限,而无需对模型进行精细调节在使用生成型人工智能进行问答时,RAG使得LLM能够以最相关、最新的信息来回答问题,并可选择引用[…].

Leave a Comment

KOSMOS-2:微软的多模态大型语言模型

介绍 2023年是一个人工智能的年份,从语言模型到稳定的扩散模型。其中一个新的玩家登上了舞台,那就是由微软开发的KOSMOS-2。它是一个多模态大型语言模型(MLLM),在理解文本和图像方面具有开创性的能力。开发语言模型是一回事,而为视觉创建模型是另一回事,但拥有同时具备这两种技术的模型则是另一个全新层次的人工智能。在本文中,我们将深入探讨KOSMOS-2的特点和潜在应用,以及它对人工智能和机器学习的影响。 学习目标 了解KOSMOS-2多模态大型语言模型。 了解KOSMOS-2如何执行多模态接地和指称表达生成。 深入了解KOSMOS-2在现实世界中的应用。 在Colab中使用KOSMOS运行推理。 本文是作为 数据科学博客马拉松 的一部分发布的。 了解KOSMOS-2模型 KOSMOS-2是微软研究团队的一项成果,他们在一篇名为“Kosmos-2:将多模态大型语言模型接地到世界”的论文中介绍了这个模型。KOSMOS-2旨在同时处理文本和图像,并重新定义我们与多模态数据的交互方式。KOSMOS-2基于基于Transformer的因果语言模型架构构建,类似于其他著名模型如LLaMa-2和Mistral AI的7b模型。 然而,KOSMOS-2的独特训练过程是其与众不同之处。它使用一组庞大的图像-文本对训练数据集,称为GRIT,其中文本以特殊令牌形式包含了对图像中物体的引用边界框。这种创新的方法使KOSMOS-2能够提供对文本和图像的新理解。 什么是多模态接地? KOSMOS-2的一个亮点功能是其执行“多模态接地”的能力。这意味着它可以为图像生成描述对象及其在图像中的位置的字幕。这大大减少了语言模型中的“幻觉”问题,极大地提高了模型的准确性和可靠性。 这个概念通过独特的令牌将文本与图像中的对象联系起来,有效地将对象“接地”到视觉环境中。这减少了幻觉,增强了模型生成准确图像字幕的能力。 指称表达生成 KOSMOS-2在“指称表达生成”方面也表现出色。这个功能允许用户以图像中特定边界框和问题的方式提示模型。然后,模型可以回答有关图像中特定位置的问题,为理解和解释视觉内容提供了强大的工具。 这种令人印象深刻的“指称表达生成”用例允许用户使用提示,并为与视觉内容的自然语言交互打开了新的途径。 使用KOSMOS-2进行代码演示 我们将看到如何在Colab上使用KOSMOS-2模式进行推理。在这里找到完整的代码:https://github.com/inuwamobarak/KOSMOS-2 步骤1:设置环境 在这一步中,我们安装必要的依赖库,如🤗 Transformers、Accelerate和Bitsandbytes。这些库对使用KOSMOS-2进行高效推理至关重要。 !pip install…

Leave a Comment

LLM革命:改变语言模型

介绍 在过去几年中,语言模型领域经历了一场巨大的演变,特别是随着大规模语言模型(LLMs)的出现。这些模型具备数十亿个参数和对自然语言的深刻理解,对于改变人工智能领域起到了关键作用。今天,我们将探索这场革命,重点介绍从闭源到开源LLMs的转变,精细调整的重要性以及最近出现的高效调整技术的发展。 学习目标: 了解闭源和开源LLMs的区别。 了解LLMs中的传统和参数高效调整。 探索不同的参数高效调整策略。 学习使用Ludwig进行高效调整。 闭源vs开源LLMs:选择正确的方法 语言模型领域存在着闭源模型(如OpenAI的ChatGPT、GPT 3.5和GPT 4)和开源变种(如Meta、Google和各种研究实验室提供的)之间的两极分化。闭源LLMs由于其管理基础设施和快速概念验证能力,成为一个引人注目的起点。这些模型提供高质量的预训练数据集,并且无需设置基础设施,使得那些探索LLMs能力的人可以轻松入门。 然而,尽管闭源LLMs易于获取,但它们存在根本性的局限性。它们缺乏模型所有权和极少的自定义能力,特别是对于数据隐私和模型控制至关重要的领域,这使得闭源LLMs不太适合长期投资。相比之下,开源LLMs提供了一个有希望的替代方案。它们使得完全拥有模型和自定义成为可能,并便利地获得开源空间中的创新发展。而付出的代价则是主机费用和困难。 传统微调和参数高效微调 微调成为了最大化LLMs潜力的关键过程,特别是考虑到特定领域任务的情况下。闭源模型常常缺乏所需的灵活性进行微调,而开源模型则可以完全控制这个过程。微调允许通过更新模型权重将预训练的LLMs适应于特定任务,从而提高性能。这是将这些通用模型个性化为专用应用的手段,为独特任务优化性能。 关于微调和类似检索增强生成(RAG)模型之间的辩论,重点在于是否需要针对具体任务进行定制的模型,而非通用智能模型。开源LLMs的性质允许自定义和高效微调以实现卓越的任务特定性能。 传统微调涉及更新所有模型参数,这一过程已被证明是资源密集型、耗时且不总能获得最佳的任务特定性能。然而,参数高效微调的最新创新取得了突破。通过冻结预训练LLM并仅训练一小部分特定任务层(不到总模型权重的1%),高效微调变得既节约资源又更有效。 向参数高效微调的转变显著影响了LLMs如何适应特定任务。通过仅关注训练少量特定任务层,这个过程变得更具成本效益和高效性。这种创新方法在较小数据集上实现了最佳任务特定性能,展示了开源LLMs相对于闭源模型的潜力。 Meta等人的LIMA论文等研究支持了在较小数据集上进行微调可以超越GPT 4等闭源模型性能的观点。这种通过较少数据实现更多的概念的概念突出了开源LLMs在适当微调下的效率和效果。 理解高效训练策略 在利用预训练模型进行特定任务时,LoRA(低秩自适应)和QLoRA(量化低秩自适应)已经成为有效微调大型语言模型(LLMs)的创新方法。这些方法对于将预训练模型定制为专用任务而最小化附加参数非常重要。 LoRA:对体系结构的深入研究 LoRA的体系结构涉及低秩分解,通过将变压器架构中的大型权重矩阵分解为较小矩阵来实现。在变压器的上下文中,LoRA专注于查询,键和值线性投影。 通常,这些线性投影具有大的权重矩阵,例如1024×1024,LoRA将其分解为较小的矩阵,例如1024×8和8×1024。这些较小的矩阵相乘,可以产生原始的维度。这种压缩大大减少了可调参数的数量,约为总LLM参数的一半到1%。 在变压器体系结构的上下文中,LoRA为键和查询投影层集成了适配器模块。这些通过低秩分解构造的适配器保持了原始形状,同时使其能够插入到变压器层中。基本层保持冻结状态,只有适配器权重是可训练的。…

Leave a Comment

Core42和Cerebras发布Jais 30B,为阿拉伯语大型语言模型设定了新的基准

Cerebras和Core42(G42公司和总部位于阿联酋的全国性云和生成AI赋能机构)宣布推出 Jais 30B,这是其开源阿拉伯大型语言模型(LLM)的最新和最精细版本。 Jais 30B是其上一版本Jais 13B的重大升级,Jais 13B于2023年8月发布。新模型具有300亿个参数,而Jais 13B只有130亿个,并且它是在更大的数据集上进行训练的。这导致在语言生成、摘要和阿拉伯-英语翻译方面取得了显著的改进。 Jais 30B现已与单语英语模型持平,并在基础模型评估中胜过大多数开源模型。该模型还能够用阿拉伯语和英语生成更长、更详细的回答。 Core42致力于负责任和安全的AI实践,Jais 30B开发团队进一步加强了其过程和政策,以监管模型产生偏见、仇恨或有害内容的情况。 Jais 30B可在Hugging Face上下载。 Hugging Face基础模型:https://huggingface.co/core42/jais-30b-v1 Hugging Face聊天模型:https://huggingface.co/core42/jais-30b-chat-v1 Jais 30B的推出是Core42和阿拉伯语世界的重要里程碑。该模型有可能彻底改变我们在阿拉伯语中的沟通、学习和工作方式。 该文章由MarkTechPost发布:作者:Core42和Cerebras发布了Jais 30B,创造了阿拉伯大型语言模型的新标杆。

Leave a Comment

使用牛轧糖提升科学文件处理

简介 在不断发展的自然语言处理和人工智能领域中,从科学PDF等非结构化数据源中提取有价值的信息变得越来越重要。为了解决这个挑战,Meta AI推出了“Nougat”或称“学术文档的神经光学理解”,这是一种基于Transformer的先进模型,旨在将科学PDF转录成常见的Markdown格式。Nougat出现在Lukas Blecher、Guillem Cucurull、Thomas Scialom和Robert Stojnic的论文《Nougat:学术文档的神经光学理解》中。 这为光学字符识别(OCR)技术带来了开创性的转变,而Nougat是Meta AI强大的AI模型中的最新成员。在本文中,我们将探讨Nougat的能力,了解它的架构,并演示使用该模型转录科学文档的实际示例。 学习目标 了解Meta AI最新的科学文档Transformer模型Nougat。 了解Nougat如何借鉴其前身Donut,并引入先进的文档AI方法。 学习Nougat,包括其视觉编码器、文本解码器和端到端训练过程。 深入了解OCR技术的发展,从ConvNets的早期阶段到Swin架构和自回归解码器的革命性能量。 本文作为数据科学博文马拉松的一部分发表。 Nougat的诞生 Nougat并不是Meta AI家族中的第一个Transformer模型。它继承了它的前身“Donut”的理念,展示了以Transformer为基础的模型中视觉编码器和文本解码器的能力。这个概念很简单:将像素数据输入模型,获得文本输出。这种端到端方法消除了复杂的流水线,并证明了注意力就是所需的一切。 让我们简要讨论驱动Nougat等模型的“视觉编码器、文本解码器”范式的基本概念。作为Nougat的前身,Donut引入了在单个模型中结合视觉和文本处理的能力。与传统的文档处理流水线不同,这些模型在端到端操作,将原始像素数据转化为文本内容。这种方法利用了Transformer架构的注意力特性来产生结果。 Nougat接过火炬 在Donut取得成功的基础上,Meta AI推出了Nougat,将OCR技术推向了一个新的水平。与其前身一样,Nougat采用了基于Swin Transformer的视觉编码器和基于mBART的文本解码器。Nougat从科学PDF的原始像素中预测文本的Markdown形式。这代表了将科学知识转录成熟悉的Markdown格式的重大突破。 Meta…

Leave a Comment

揭开意图对齐的密码:Zephyr-7B通过精炼监督微调和人工智能反馈的突破性指南

ZEPHYR-7B,对用户意图校准进行优化的较小语言模型,通过蒸馏的直接偏好优化(dDPO)和使用AI反馈(AIF)数据实现。这种方法显着增强了意图的校准,无需人工注释,在7B参数模型的聊天基准上实现了最佳性能。该方法依赖AIF的偏好数据,训练时间较短,细调期间无需额外采样,创造了新的最先进技术。 研究人员讨论了ChatGPT及其派生模型,如LLaMA、MPT、RedPajama-INCITE、Falcon和Llama 2的普及,重点在于细调、上下文、检索增强生成和量子化方面的进展。讨论了用于改善较小模型性能的蒸馏技术,以及用于模型评估的工具和基准。该研究评估了ZEPHYR-7B在MTBench、AlpacaEval和HuggingFace的开放型LLM排行榜上的表现。 该研究讨论了使用蒸馏的监督细调(dSFT)来增强较小的开放型LLM,以提高准确性和用户意图校准。它引入了dDPO来对齐LLMs,无需人工注释,依赖于来自教师模型的AIF。研究人员介绍了ZEPHYR-7B,它是通过dSFT、AIF数据和dDPO达到的Mistral-7B版本,证明了其与人类反馈对齐的70B参数聊天模型的性能相当。它强调了LLM发展中意图对齐的重要性。 该方法概述了增强语言模型的方法,将dSFT与高质量数据一起训练模型,并使用dDPO来通过优化响应偏好来精化模型。使用来自教师模型的AIF来改进与用户意图的对齐。该过程涉及迭代自提示以生成训练数据集。通过dSFT、AIF数据和dDPO实现的ZEPHYR-7B模型代表了具有改进意图对齐的最先进的聊天模型。 ZEPHYR-7B,一个具有7B参数的模型,在聊天基准中树立了新的最先进技术,超越了LLAMA2-CHAT-70B,最佳的开放式RLHF模型。它在AlpacaEval中与GPT-3.5-TURBO和CLAUDE 2竞争良好,但在数学和编码任务方面落后。在7B模型中,dDPO模型出色,优于dSFT和Xwin-LM dPPO。然而,较大的模型在知识密集型任务中表现更好。在开放型LLM排行榜上对ZEPHYR的评估显示其在多类分类任务中的优势,验证了其在经过细调后的推理和真实能力。 ZEPHYR-7B采用直接偏好优化来增强意图对齐。该研究强调了将GPT-4作为评估器时潜在的偏见,并鼓励探索较小的开放型模型在用户意图对齐方面的能力。它指出了对安全性考虑(如有害输出或非法建议)的疏漏,表明未来需要在这一重要领域开展研究。 该研究确定了未来研究的几个方向。尚未探索安全性考虑,解决有害输出和非法建议的问题。建议研究较大的教师模型对蒸馏以改善学生模型性能的影响。尽管具有挑战性,但使用合成数据进行蒸馏被认为是一个有价值的研究领域。鼓励进一步探索较小开放型模型及其与用户意图对齐的能力,以推动潜在的进展。建议在更广泛的基准和任务上对ZEPHYR-7B进行评估,全面评估其能力。

Leave a Comment

在Amazon SageMaker JumpStart中通过两行代码部署和优化基础模型

我们非常高兴地宣布推出了简化版的Amazon SageMaker JumpStart SDK,它能够轻松构建、训练和部署基础模型预测代码也得到了简化在本文中,我们将演示如何使用简化版SageMaker Jumpstart SDK只需几行代码便能开始使用基础模型

Leave a Comment

介绍OWLv2:谷歌在零样本目标检测方面的突破

介绍 2023年即将结束,对计算机视觉界而言,令人兴奋的消息是,谷歌最近在零样本目标检测领域取得了重大进展,并发布了OWLv2。这款尖端模型现在已经在🤗 Transformers中可用,并代表着迄今为止最强大的零样本目标检测系统之一。它基于去年推出的OWL-ViT v1模型打下了坚实的基础。 在本文中,我们将介绍该模型的行为和架构,并展示如何进行推理的实践方法。让我们开始吧。 学习目标 了解计算机视觉中零样本目标检测的概念。 了解谷歌OWLv2模型背后的技术和自我训练方法。 使用OWLv2的实际方法。 本文作为Data Science Blogathon的一部分发表。 OWLv2背后的技术 OWLv2的强大能力归功于其新颖的自我训练方法。该模型在一个包含超过10亿个示例的Web规模数据集上进行了训练。为了实现这一点,作者利用了OWL-ViT v1的强大功能,使用它生成伪标签,然后用这些伪标签来训练OWLv2。 此外,该模型还在检测数据上进行了微调,从而提高了其前身OWL-ViT v1的性能。自我训练为开放世界定位提供了Web规模的训练,与目标分类和语言建模领域的趋势相呼应。 OWLv2架构 尽管OWLv2的架构与OWL-ViT相似,但其目标检测头部有一个显著的补充。现在它包括一个目标性分类器,用于预测预测框中包含物体的可能性。目标性得分提供了洞察力,并可用于独立于文本查询对预测进行排序或筛选。 零样本目标检测 零样本学习是一个新的术语,自从GenAI的趋势以来变得流行起来。它通常在大型语言模型(LLM)的微调中见到。它涉及使用一些数据对基础模型进行微调,使其扩展到新的类别。零样本目标检测是计算机视觉领域的一个改变者。它的核心是使模型能够在图像中检测物体,而无需手工注释边界框。这不仅加快了处理速度,还减少了手工注释的需求,使其对人类更具吸引力和乐趣。 如何使用OWLv2? OWLv2遵循与OWL-ViT类似的方法,但使用了更新的图像处理器Owlv2ImageProcessor。此外,该模型依赖于CLIPTokenizer对文本进行编码。Owlv2Processor是一个方便的工具,结合了Owlv2ImageProcessor和CLIPTokenizer,简化了文本编码过程。以下是使用Owlv2Processor和Owlv2ForObjectDetection进行对象检测的示例。 在此处找到完整的代码:https://github.com/inuwamobarak/OWLv2 步骤1:设置环境…

Leave a Comment

《在Langchain中使用链条的综合指南》

介绍 迈入语言处理的前沿!在语言成为人类与技术之间的重要纽带的领域中,自然语言处理取得了一些非凡的成就。在这一进展中,有一项具有突破性意义的大型语言模型,它正在重塑我们与基于文本的信息的互动方式。在这个全面的学习之旅中,你将深入了解 LangChain,这是一种前沿工具,正在重新塑造我们与基于文本的信息的互动方式。你是否曾经想过,“Langchain”是什么链条? LangChain作为大型语言模型领域的门户独树一帜,它提供了深入理解这些模型如何将原始输入转化为精细和类似人类回答的能力。通过这种探索,你将揭开 LangChain 的基本构建模块,从LLMChain和Sequential Chains到Router Chains的复杂运作。 学习目标 了解 LangChain 的核心组成部分,包括LLMChains和Sequential Chains,看看输入是如何在系统中流动的。 学会以连贯的方式整合不同的元素,探索提示模板和语言模型之间的联系。 获得在实际任务中创建功能性链条的实际经验。 培养通过微调结构、模板和解析技术来提高链条效率的技能。 本文是“数据科学博文马拉松”的一部分。 什么是LLM? 大语言模型(LLM)是一种旨在理解和生成类似人类文本的人工智能类型。这些模型(如OpenAI的GPT-3.5)通过训练大量文本数据来了解人类语言的模式和结构。它们可以执行各种与语言相关的任务,包括翻译、内容生成、回答问题等。 LLMs是自然语言处理中宝贵的工具,广泛应用于聊天机器人、内容生成和语言翻译等领域。 什么是LangChain? 在我们揭开 LangChain Chains 的复杂性之前,让我们先理解…

Leave a Comment

Can't find what you're looking for? Try refining your search: