Press "Enter" to skip to content

Tag: LLMs

“Doctran和LLMs:分析消费者投诉的强大组合”

引言 在如今竞争激烈的市场中,企业努力理解并有效解决消费者投诉。消费者投诉可以揭示各种问题,包括产品缺陷、差劲的客户服务、计费错误和安全问题。它们在企业和客户之间的反馈(关于产品、服务或体验)循环中发挥着关键作用。分析和理解这些投诉可以为产品或服务改进、客户满意度和整体业务增长提供宝贵的见解。在本文中,我们将探讨如何利用Doctran Python库来分析消费者投诉,提取见解并做出数据驱动的决策。 学习目标 在本文中,您将: 了解Doctran Python库及其主要功能 了解Doctran和LLMs在文档转换和分析中的作用 探索Doctran支持的六种文档转换类型,包括提取、删除、询问、精炼、总结和翻译 全面了解将消费者投诉的原始文本数据转化为可行动见解的方法 了解Doctran的文档数据结构,使用ExtractProperty类来定义提取属性的模式 本文作为数据科学博客马拉松的一部分发布。 Doctran Doctran是一种先进的Python库,用于文档转换和分析。它提供了一组函数来预处理文本数据,提取关键信息,分类,询问,总结信息,并将文本翻译成其他语言。Doctran利用OpenAI GPT型模型和开源NLP库等LLMs(大型语言模型)对文本数据进行解析。 它支持以下六种类型的文档转换: 提取:从文档中提取有用的特征/属性。 删除:在将数据发送给OpenAI之前,从文档中删除个人可识别信息(PII),如姓名、电子邮件地址、电话号码等。它在内部使用spaCy库删除敏感信息。 询问:将文档转换为问答格式。 精炼:从文档中消除与预定义主题无关的任何内容。 总结:将文档表示为简洁、全面且有意义的摘要。 翻译:将文档翻译成其他语言。 该集成还可在LangChain框架的document_transformers模块中使用。LangChain是一个先进的构建LLM支持应用程序的框架。 LangChain提供了灵活性,可以探索和利用各种开源和闭源的LLM模型。它无缝连接到多样化的外部数据源,如PDF、文本文件、Excel电子表格、PPT等。它还支持尝试不同的提示,进行提示工程,利用内置的链式和代理,等等。 在Langchain的document_transformers模块中,有三种实现:DoctranPropertyExtractor、DoctranQATransformer和DoctranTextTranslator。它们分别用于提取、询问和翻译文档转换。…

Leave a Comment

大型的语言模型揭秘:初学者指南

在当今快节奏的数字世界中,自然语言处理和语言理解的作用越来越受到重视。领导这一转型浪潮的是大型语言模型(LLMs),以其能够创造出与人类创造的文本相媲美的文本而闻名。本文将深入探讨LLMs的核心应用和支持它们的基本要素。我们还将看到如何在工作场所掌握训练和部署LLMs的技巧。 LLMs是什么? 大型语言模型是生成型AI模型,可用于创建文本内容。LLMs 在各个领域都有应用。它们能够无缝地与人类创建的文本相吻合,这在各个行业有着具有变革性的意义。LLMs 使用的一些领域包括: 内容生成:LLMs 是无价的资产,可增强内容创作者的能力和效率。 增强型客户支持:基于LLMs,现代聊天机器人更具上下文,更具吸引力和用户导向性。 研究辅助:从总结大量文章到提供关键学术资源的建议,LLMs 正变得在研究中不可或缺的辅助。 语言和翻译工具:LLMs 在翻译中提供准确性,正在重塑语言学习平台的格局。 在接下来的章节中,我们将看到如何掌握LLMs的训练和部署,但在此之前,让我们了解一些重要的术语。 与LLMs相关的基本术语 如果想充分发挥LLMs的潜力,了解其基本机制至关重要。为此,人们必须熟悉一些基本概念和术语。以下是一些重要术语: 训练:这涉及在没有具体标签的大量文本数据上进行训练,学习语言的结构、模式和语法,并使用“自监督学习”来预测和学习。 提示工程:这涉及到制定准确的提示,引导LLMs生成特定和准确的输出。 微调:将现有的LLMs适应于独特的任务或行业特定的需求的过程。 部署策略:重点关注LLMs如何无缝地集成到数字平台中,以最大限度地发挥其效用和影响力。 如何进入这个领域? 要在LLMs的训练和部署中取得优秀的成绩,基本机器学习和深度学习概念的基础是必要的。但是,如果您只是想将这些工具用于各种目的,您可能不需要深入研究所有的技术细节。 要掌握提示工程和微调的技能,最快、最有效的方法是获得经验丰富的导师的实践培训。 MasterSeries为学习者提供了类似的机会。 MasterSeries:AI掌握之路 对于渴望加深AI知识的学员和专业人士来说,著名的MasterSeries…

Leave a Comment

无需编码,训练自己的LLM

介绍 生成式人工智能是一个引人入胜的领域,它承诺改变我们与技术互动和生成内容的方式,并已席卷全球。在本文中,我们将探索大型语言模型(LLMs)的迷人领域,它们的构建模块,封闭源LLMs带来的挑战以及开源模型的出现。我们还将深入探讨H2O的LLM生态系统,包括h2oGPT和LLM DataStudio等工具和框架,使个人能够在没有深入编码技能的情况下训练LLMs。 学习目标: 了解大型语言模型(LLMs)的生成式人工智能的概念和应用。 认识封闭源LLMs的挑战和开源模型的优势。 探索H2O的LLM生态系统,以实现无需深入编码技能的人工智能训练。 LLMs的构建模块:基础模型和微调 在我们深入研究LLMs的细节之前,让我们先了解生成式人工智能的概念。在以预测性人工智能为主,基于历史数据模式进行预测的同时,生成式人工智能则颠覆了这一模式。它赋予了机器从现有数据集中创建新信息的能力。 想象一下,一个机器学习模型不仅能够预测,还能生成文本、概括内容、分类信息等,这一切都来自于一个模型。这就是大型语言模型(LLMs)的作用。 LLMs采用多步骤的过程,首先是一个基础模型。这个模型需要一个庞大的数据集进行训练,通常是以TB或PB为单位的数据。这些基础模型通过预测序列中的下一个单词来学习,目的是理解数据内部的模式。 一旦建立了基础模型,下一步是微调。在此阶段,使用经过精心策划的数据集进行有监督微调,将模型塑造成所需的行为。这可能涉及训练模型执行特定任务,例如多选题选择、分类等。 第三步是强化学习与人类反馈,进一步提升模型的性能。通过使用基于人类反馈的奖励模型,模型微调其预测,使其更加贴近人类的偏好。这有助于减少噪音并提高响应的质量。 这个过程中的每一步都有助于提高模型的性能并减少不确定性。值得注意的是,基础模型、数据集和微调策略的选择取决于具体的用例。 封闭源LLMs的挑战和开源模型的崛起 封闭源LLMs,如ChatGPT、Google Bard等,已经证明了它们的有效性。然而,它们也带来了一些挑战。这些挑战包括数据隐私问题、定制和控制能力有限、高运营成本以及偶尔的不可用性。 组织和研究人员已经认识到需要更易于访问和定制的LLMs。为此,他们开始开发开源模型。这些模型具有成本效益、灵活性,并可以根据特定要求进行定制。它们也消除了将敏感数据发送到外部服务器的担忧。 开源LLMs使用户能够训练自己的模型并访问算法的内部工作原理。这个开放的生态系统提供了更多的控制和透明度,为各种应用提供了一个有希望的解决方案。 H2O的LLM生态系统:无需编码的LLM训练工具和框架 H2O是机器学习领域的一家重要参与者,他们开发了一个强大的LLM生态系统。他们的工具和框架可以在无需深入编码专业知识的情况下进行LLM训练。让我们来探索其中的一些组件。 h2oGPT h2oGPT是一个可以在自己的数据上进行训练的经过微调的LLM。最棒的部分是,它完全免费使用。通过h2oGPT,您可以尝试使用LLMs,甚至商业应用。这个开源模型使您能够探索LLMs的能力,而无需面对财务障碍。 部署工具 H2O.ai…

Leave a Comment

“文本转语音 – 训练您的大型语言模型”

介绍 想象一个世界,人工智能可以接受音乐家的语音指令,并将其转化为美妙的、旋律优美的吉他声音。这不是科幻小说,而是源自于开源社区“AI之声”的突破性研究。在本文中,我们将探讨在生成式人工智能吉他声音的“文本到声音”领域创建大型语言模型(LLM)的旅程。我们将讨论所面临的挑战以及为实现这个愿景所开发的创新解决方案。 学习目标: 了解在“文本到声音”领域创建大型语言模型的挑战和创新解决方案。 探索在开发基于语音指令生成吉他声音的人工智能模型时面临的主要挑战。 深入了解使用ChatGPT和QLoRA模型等人工智能进展改进生成式人工智能的未来方法。 问题陈述:音乐家的意图识别 问题是使人工智能能够根据音乐家的语音指令生成吉他声音。例如,当音乐家说“给我你明亮的吉他声音”时,生成式人工智能模型应该理解意图并产生明亮的吉他声音。这需要上下文和领域特定的理解,因为像“明亮”这样的词在一般语言中有不同的含义,但在音乐领域代表特定的音色质量。 数据集挑战和解决方案 训练大型语言模型的第一步是拥有与模型的输入和期望输出相匹配的数据集。在确定正确的数据集以训练我们的LLM以理解音乐家的指令并以正确的吉他声音作出回应时,我们遇到了几个问题。以下是我们如何处理这些问题。 挑战1:吉他音乐领域数据集准备 一个重大的挑战是缺乏特定于吉他音乐的可用数据集。为了克服这个问题,团队不得不创建自己的数据集。这个数据集需要包括音乐家之间讨论吉他声音的对话,以提供上下文。他们利用了Reddit的讨论等资源,但发现需要扩大这个数据池。他们采用了数据增强、使用BiLSTM深度学习模型和生成基于上下文的增强数据集等技术。 挑战2:数据注释和创建标记数据集 第二个挑战是对数据进行注释以创建一个带有标签的数据集。像ChatGPT这样的大型语言模型通常在通用数据集上进行训练,需要对特定领域的任务进行微调。例如,“明亮”可以指光线或音乐质量。团队使用了一种名为Doccano的注释工具,教会模型正确的上下文。音乐家为乐器和音色质量给数据打上了标签。由于需要领域专业知识,注释工作具有挑战性,但团队通过应用主动学习方法对数据进行自动标注来部分解决了这个问题。 挑战3:建模作为机器学习任务-命名实体识别(NER)方法 确定正确的建模方法是另一个障碍。它应该被视为识别主题还是实体?团队确定了命名实体识别(NER)方法,因为它使模型能够识别和提取与音乐相关的实体。他们采用了spaCy的自然语言处理流水线,利用了HuggingFace的RoBERTa等转换器模型。这种方法使生成式人工智能能够在音乐领域中识别像“明亮”和“吉他”这样的词的上下文,而不是它们的一般含义。 模型训练的挑战和解决方案 模型训练对于开发有效和准确的人工智能和机器学习模型至关重要。然而,它通常会带来一些挑战。在我们的项目背景下,当我们训练我们的转换器模型时,我们遇到了一些独特的挑战,我们不得不找到创新的解决方案来克服这些挑战。 过拟合和内存问题 在模型训练过程中,我们遇到的主要挑战之一是过拟合。过拟合是指模型过于专注于拟合训练数据,导致在未见或真实世界数据上表现不佳。由于我们的训练数据有限,过拟合是一个真正的问题。为了解决这个问题,我们需要确保我们的模型能够在各种真实世界场景中表现良好。 为了解决这个问题,我们采用了数据增强技术。我们创建了四个不同的测试集:一个用于原始训练数据,另外三个用于在不同上下文中进行测试。在基于内容的测试集中,我们改变了整个句子,而在基于上下文的测试集中保留了音乐领域的实体。使用未见过的数据集进行测试也对验证模型的鲁棒性起到了至关重要的作用。 然而,我们的旅程并不没有遇到与内存相关的障碍。使用流行的自然语言处理库spaCy训练模型会引发内存问题。最初,由于内存限制,我们仅为评估分配了2%的训练数据。将评估集扩大到5%仍然导致内存问题。为了解决这个问题,我们将训练集分成了四部分并分别进行训练,既解决了内存问题又保持了模型的准确性。 模型性能和准确性 我们的目标是确保模型在实际场景中表现良好,并且我们所达到的准确性不仅仅是由于过拟合造成的。由于在广泛的数据上进行了预训练的大型语言模型RoBERTa,训练过程非常快速。spaCy进一步帮助我们找到了适合我们任务的最佳模型。 结果是令人鼓舞的,准确率始终超过95%。我们使用了各种测试集进行了测试,包括基于上下文和基于内容的数据集,结果准确率令人印象深刻。这证实了尽管训练数据有限,模型学习能力快速。…

Leave a Comment

LangFlow | 使用LLMs开发应用程序的LangChain用户界面

介绍 大型语言模型席卷全球。随着ChatGPT、GPT3、Bard和其他大型语言模型的出现,开发人员不断使用这些模型来创建新的产品解决方案。每一天都会有一个新的大型语言模型或现有LLM的新版本。跟上这些新版本或新模型可能会有问题,因为人们必须阅读每个大型语言模型的文档。LangChain是一个包装所有不同LLM的库,使事情变得更容易。此外,基于LangChain的UI——LangFlow也被引入,可以直接与之交互和创建应用程序,使事情变得更好。 学习目标 了解LangFlow UI 安装和使用LangFlow 了解LangFlow的内部工作原理 使用LangFlow创建应用程序 通过LangFlow共享创建的应用程序 本文是Data Science Blogathon的一部分。 什么是LangFlow和为什么使用LangFlow? LangFlow是一个基于Python包LangChain和react-flow设计的图形用户界面(UI)。LangChain是一个用于创建大型语言模型应用程序的Python包。它由不同的组件组成,如代理、LLMs、链、内存和提示。开发人员将这些模块链在一起以创建应用程序。LangChain包含几乎所有流行的大型语言模型的包装器。现在,要使用LangChain,必须编写代码来创建应用程序。编写代码有时可能耗时甚至容易出错。 这就是LangFlow的作用。它是基于LangChain的图形用户界面(UI)。它包含LangChain中的所有组件。LangFlow提供了拖放功能,您可以将组件拖放到屏幕上并开始从大型语言模型构建应用程序。它甚至包含了丰富的示例供每个人开始使用。在本文中,我们将介绍这个UI,并看看如何使用它构建应用程序。 让我们从LangFlow开始 现在,我们已经了解了LangFlow是什么,以及它的作用,让我们深入了解其功能,以更好地理解其功能。LangFlow UI适用于JavaScript和Python。您可以选择其中一种并开始使用。对于Python版本,需要在系统中安装Python和LangChain库。 如果您想使用LangFlow,您需要安装以下软件包 pip install langchain pip install langflow…

Leave a Comment

新的 AI 模型仅使用 30B 参数即可胜过 GPT-3

MosaicML是著名的开源语言模型(LLM)提供商,最近推出了开创性的MPT-30B模型:Base、Instruct和Chat。这些最先进的模型由NVIDIA最新一代的H100加速器提供动力,与原始的GPT-3相比,代表了质量上的重大飞跃。 也可阅读:什么是大型语言模型(LLMs)? MPT-7B的前所未有的成功和演进到MPT-30B 自2023年5月推出以来,MPT-7B模型已经席卷了整个行业,累计下载量达到了惊人的330万次。在此胜利的基础上,MosaicML现在发布了备受期待的MPT-30B模型。这将提高标准,为各种应用程序解锁了无数新的可能性。 MPT-30B的无与伦比的特点 MPT-30B最值得注意的成就之一是,它能够在仅使用300亿个参数的情况下超越GPT-3的质量,而GPT-3使用了1750亿个参数。这种参数数量的突破性减少不仅使MPT-30B更适合本地硬件部署,而且显著降低了推理成本。此外,基于MPT-30B训练自定义模型的费用明显低于训练原始GPT-3的估计,这使其成为企业不可抵挡的选择。 了解更多信息:为现实用例定制大型语言模型GPT3 此外,MPT-30B的训练涉及长达8000个标记的序列,使其能够处理数据密集型企业应用程序。这种非凡的性能得益于利用NVIDIA的H100 GPU,这些GPU确保了更高的吞吐量和加速的训练时间。 也可阅读:中国强大的Nvidia人工智能芯片的隐藏市场 探索MPT-30B的无限应用 许多有远见的公司已经采用了MosaicML的MPT模型,彻底改变了它们的AI应用: Replit是一款先驱性的基于Web的集成开发环境(IDE),成功利用MosaicML的训练平台构建了一个卓越的代码生成模型。通过利用其专有数据,Replit在代码质量、速度和成本效益方面取得了显着的提升。 Scatter Lab是一家创新的AI初创公司,专门从事聊天机器人开发,利用MosaicML的技术训练了自己的MPT模型。结果是一个能够理解英语和韩语的多语言生成式AI模型,显著提升了其广泛用户群的聊天体验。 Navan是一家全球知名的旅游和费用管理软件公司,利用MPT提供的坚实基础来开发定制的LLM,用于先进的应用程序,如虚拟旅行代理和对话式商业智能代理。Navan的联合创始人兼CTO Ilan Twig热情赞扬MosaicML的基础模型,因为它不仅提供了无与伦比的语言能力,而且在规模化微调和推理方面也非常高效。 了解更多信息:如果您是企业领袖,希望利用人工智能的力量,“数据黑客峰会2023年”的“面向企业领袖的AI”研讨会是必须参加的。 访问MPT-30B的力量 开发人员可以通过HuggingFace Hub轻松访问MPT-30B的卓越功能,该Hub作为开源模型可用。这使开发人员可以使用自己的数据微调模型,并在其基础设施上无缝部署推理。或者,开发人员可以选择MosaicML的托管端点MPT-30B-Instruct,这是一个无需繁琐操作的模型推理解决方案,与类似端点相比成本仅为其一小部分。MPT-30B-Instruct的定价仅为每1,000个标记0.005美元,为开发人员提供了异常实惠的选择。 我们的看法 MosaicML发布MPT-30B模型的开创性举措,标志着大型语言模型领域的历史性里程碑。它使企业能够利用生成式AI的无与伦比能力,并优化成本,同时保持对其数据的完全控制。总之,MPT-30B代表了一个真正的游戏变革者,提供了无与伦比的质量和成本效益。随着更多公司采用和利用这项变革性技术推动产业创新,未来的潜力是巨大的。

Leave a Comment

如何使用Langchain自动化数据分析?

介绍 在今天的世界中,企业和组织都严重依赖数据做出明智的决策。然而,分析大量数据可能是一项耗时且令人望而生畏的任务。这就是自动化发挥作用的地方。通过像Langchain和Gen AI这样的框架,您可以自动化您的数据分析,节省宝贵的时间。 在本文中,我们将深入探讨如何使用Langchain构建自己的代理程序并自动化数据分析。我们还将向您展示如何使用内置的pandas代理程序逐步创建Langchain代理程序的指南。 Langchain是什么? Langchain是一个用于构建具有大型语言模型(如chatGPT)的应用程序的框架。它提供了一种更好的管理内存、提示和创建链(一系列操作)的方法。此外,Langchain为开发人员提供了一个创建代理程序的工具。代理程序是可以根据条件执行一系列操作的实体。 Langchain中的代理程序类型 Langchain中有两种类型的代理程序: 动作代理程序:动作代理程序决定要执行的动作并逐个执行这些动作。 计划-执行代理程序:计划和执行代理程序首先决定要执行的一系列动作,然后逐个执行这些动作。 然而,这两个类别之间没有明确的区别,因为这个概念仍在发展中。 使用Langchain进行数据分析 请安装langchain和openai库。您可以通过下载所需的库,然后将它们导入到您的项目中来完成此操作。以下是如何操作: # 安装langchain和openai库 !pip install langchain openai # 导入库 import os import pandas…

Leave a Comment