Press "Enter" to skip to content

Tag: GPT

“用GPT-4打造个性化的人工智能交易顾问”

介绍 近年来,将人工智能(AI)整合到股票交易中已经改变了投资者的决策方式。随着大型语言模型(LLMs)如GPT-3和GPT-4的出现,发生了一场范式转变,使个人投资者和交易者更容易获得复杂的市场分析和见解。这种革命性的技术利用大量的数据和复杂的算法,提供了以前仅由机构投资者独占的市场理解深度。本文重点介绍使用LLMs开发个性化AI交易顾问,旨在根据风险偏好、投资时间、预算和期望回报来匹配个人投资者的投资配置,为零售投资者提供个性化、战略性的投资建议。 由GPT-3和GPT-4等大型语言模型(LLMs)驱动的股票交易顾问已经彻底改变了金融咨询服务。它们可以利用人工智能来分析历史股票数据和当前的财经新闻,为投资者提供与其独特投资组合和财务目标相符合的个性化投资建议。我们将尝试构建一个顾问来预测市场行为和趋势,根据个人风险承受能力、投资期限、可用资本和期望回报提供量身定制的建议。 学习目标 通过本文,读者将能够: 了解AI和像GPT-3这样的LLMs如何改变股市分析和交易。 认识到基于个人风险偏好和投资目标的AI驱动工具提供个性化投资建议的能力。 了解AI如何利用历史和实时数据制定投资策略和预测。 了解股票交易中的AI如何使复杂的投资策略对更广泛的受众(包括零售投资者)可行。 发现如何利用AI驱动的工具进行个人投资和股票交易决策。 了解利用LLMs构建股票交易顾问的概念。 本文作为数据科学博文马拉松的一部分进行发布。 关于数据集 该项目的数据集从纽约证券交易所获取,并在Kaggle上提供,包括覆盖七年的四个CSV文件。其中包括关键的财务指标“fundamentals.csv”,提供历史股价和股票分割调整的“prices.csv”和“prices-split-adjusted.csv”,以及提供附加公司信息(如部门分类和总部)的“securities.csv”。这些文件的综合提供了对公司业绩和股票市场动态的全面了解。 数据准备 使用类似GPT-4这样的大型语言模型(LLMs)来实现股票交易顾问,需要进行关键的数据准备。这个过程包括重要的任务:数据清洗、归一化和分类,使用提供的数据集:fundamentals.csv、prices.csv、prices-split-adjusted.csv和securities.csv。 步骤1:数据清洗 在“基本数据集”中,我们使用中值插补来处理“For Year”、“Earnings Per Share”和“Estimated Shares Outstanding”的缺失值(173个、219个和219个缺失值)。 我们将“Period Ending”列转换为日期时间格式,使其适合进行数字字段分析。…

Leave a Comment

Nexusflow的NexusRaven-V2如何战胜GPT-4在它自己的游戏中!

在人工智能快速发展的领域中,出现了一个新的竞争者,挑战着已经建立起来的人工智能模型的主导地位。Nexusflow是一个在科技圈中引起轰动的名字,他们推出了一款开源生成式人工智能模型NexusRaven,不仅为开发者提供更易于使用的工具,还声称在零-shot函数调用方面超越了强大的GPT-4。让我们深入了解这一开创性的发展。 NexusRaven的崛起 Nexusflow最新的创新成果NexusRaven,凭借其出色的能力引人注目。”探索苹果开创性的开源MLX框架,实现苹果芯片上的高效机器学习。了解熟悉的API、可组合的函数转换、惰性计算和统一的内存模型,革新模型开发。通过多功能示例揭开MLX的威力。使用’pip install mlx’简化安装,提供升级的机器学习体验。苹果最新的创新增强了模型开发的协作和效率。 通过开源赋能开发者 NexusRaven最引人注目的一个方面是它的开源性质。Nexusflow通过提供技术社区对其人工智能模型的访问权,做出了一次具有战略意义的举措。这使得人工智能的开发可以更加民主化,使更广泛范围的开发者能够进行实验、创新并为模型的演进做出贡献。开源的方式是一个改变游戏规则的因素,有助于加速人工智能领域的进步。 超越GPT-4 Nexusflow宣布NexusRaven在零-shot函数调用方面超越了GPT-4,人工智能界对此表示关注。考虑到GPT-4作为领先的人工智能模型的声誉,这不是一个小小的成就。NexusRaven在这个领域的优越性能表明它在理解用户意图方面可能更加直观和高效,这对于从编程助手到聊天机器人等各种应用都至关重要。 人工智能副驾驶的新时代 NexusRaven不仅仅是一个人工智能模型,它还是一辆使用户能够更轻松高效地利用人工智能工具的副驾驶。它在特定任务上超越GPT-4的能力表明我们正在进入一个人工智能副驾驶的新时代。这些先进的模型将彻底改变我们与技术的互动方式,使之比以往更加流畅和直观。 我们的观点 Nexusflow推出NexusRaven标志着人工智能行业的一个重要里程碑。它的开源模型和对抗GPT-4的出色表现表明人工智能解决方案正向更加具有协作性和先进性的方向发展。随着开发者和技术爱好者探索NexusRaven的潜力,我们可以预期会出现一股创新浪潮,重新定义人工智能的边界。Nexusflow的大胆举动可能成为下一波人工智能演进的催化剂。

Leave a Comment

GPT-4和XGBoost 2.0的深入解析:AI的新领域

介绍 人工智能(AI)正在经历一次重大转变,GPT-4等LLM的出现正在革新机器对人类语言的理解和生成。与此同时,xgboost 2.0作为一种强大的预测建模工具出现,通过提高效率和准确性增强了机器学习。本文探讨了GPT-4和xgboost 2.0的能力和应用,并研究了它们在各个领域的变革性影响。期待深入了解它们的实际应用、挑战和未来前景,并概述这些先进的AI技术在塑造AI未来中的作用。 学习目标 深入了解GPT-4如何革新自然语言处理,以及xgboost 2.0如何增强预测建模。 了解这些技术在客户服务、金融等不同领域的多样化实际应用。 认识到与实施这些AI技术相关的潜在挑战和道德问题。 探索AI领域的未来发展,考虑GPT-4和xgboost 2.0等技术的当前发展轨迹。 这篇文章是 Data Science Blogathon 的一部分。 GPT-4概述 GPT-4是OpenAI生成预训练transformer家族中最新的继任者,代表着自然语言处理领域的重大突破。在其前身GPT-3已经具备了令人印象深刻的能力的基础上,GPT-4通过无与伦比的抓住和解释上下文的能力使自己与众不同。这个先进模型擅长生成不仅连贯和符合上下文的回答,而且与人类表达惊人地相似。它的多功能性涵盖了广泛的应用领域,包括复杂的文本生成、无缝的翻译、简明的摘要和准确的问答。 GPT-4的这一广泛功能范围使其在多个领域中成为宝贵的资产,从自动化客户服务互动和增强语言翻译服务到提供教育支持和简化内容创作流程。该模型对微妙语言的深刻理解以及生成丰富、多样的文本内容的能力,将其置于基于AI的沟通和内容生成解决方案的前沿,为数字和实际场景中的创新和应用开辟了新的道路。 XGBoost 2.0分析 XGBoost 2.0在机器学习方面迈出了重大的一步,提升了处理复杂预测建模任务的能力,涉及金融和医疗等高风险领域。该更新引入了几个关键的创新,例如具有向量叶子输出的多目标树,允许单棵树管理多个目标变量。这一发展显著降低了过拟合和模型大小,同时更有效地捕捉目标之间的相关性。此外,XGBoost 2.0通过新的“device”参数简化了GPU配置,取代了多个单独的设置,简化了选择过程。它还引入了“max_cached_hist_node”参数,可以更好地控制直方图的CPU缓存大小,在深度树场景中优化内存使用。 这些更新进一步增强了XGBoost在处理结构化数据方面的优势。在内存管理、GPU利用率和多目标树构建方面的改进,增强了它作为处理结构化数据挑战的首选。新版本将“hist”设为默认的树方法,优化基于直方图的方法。它还为“approx”树方法引入了GPU支持,展示了XGBoost在计算效率方面的承诺。…

Leave a Comment

开放AI为GPT-6和GPT-7的发布做准备:在中国申请商标

OpenAI近期为GPT-6和GPT-7在中国申请了商标,从战略角度表明了其在推进人工智能(AI)方面的承诺。这是继该公司早前为GPT-4和“Whisper”申请商标之后的一系列举措。尽管OpenAI的服务在中国不可访问,但这一积极的举步显示了该公司的全球愿景和在推出下一批LLM方面不断努力推动AI技术边界的努力。 OpenAI在中国的商标申请 OpenAI是AI领域的领先力量,在中国为GPT-6和GPT-7提交了商标申请。这些申请目前正在审查中,属于第9类,涵盖用于科学或研究目的的器具和仪器,以及第42类,涵盖技术服务和设计。这些申请反映了OpenAI在全球AI技术前沿的坚定,以保持领先地位。 大型语言模型的进展 自ChatGPT(OpenAI的生成式AI应用)推出以来,该公司始终在大型语言模型(LLM)方面不断突破界限。ChatGPT最初建立在具有1750亿个参数的GPT-3.5上,展示了卓越的语言理解和生成能力。值得注意的是,OpenAI在3月份推出了GPT-4,其估计的参数数量超过了1万亿,展示了该公司对LLM发展的承诺。 持续创新——GPT-5及未来 OpenAI首席执行官Sam Altman透露正在进行GPT-5的工作,并计划从微软获得额外资金用于支持研究和开发工作。这表明OpenAI尽管最近发生了包括Altman作为CEO的暂时撤职在内的内部争议,仍然致力于创新。有报道称该争议与人工通用智能(AGI)的潜在突破有关,凸显了强大AI发展所涉及的道德考量。 还需要阅读:OpenAI与微软合作发展GPT-5 平衡创新与道德考量 Altman重新担任CEO职务,并加强了对前进的研究计划以及投资安全措施的重视。OpenAI意识到人工智能发展所带来的道德责任,旨在在创新和安全之间取得平衡。该公司对AGI的追求是一项谨慎而重要的目标,体现了对强大AI技术潜在风险和社会影响的深思熟虑的态度。 我们的看法 OpenAI在中国的商标申请意味着其在全球AI领域树立存在的战略举措。GPT模型方面的持续进展显示了该公司塑造AI未来的承诺。加上对新商标的追求,该公司展示了其努力。在OpenAI应对内部争议和外部挑战的过程中,道德AI发展始终是其使命的基石。OpenAI在追求卓越的AI过程中的发展史仍然吸引着科技界,为创新和责任手牵手的未来承诺。

Leave a Comment

探索对OpenAI模型的开源替代品

介绍 11月在人工智能领域发生了许多重大事件。从GPT存储的推出,到GPT-4-turbo的发布,再到OpenAI的惨败,这一切都引发了一个重要的问题:封闭模型和背后的人员有多可靠?当你在生产中使用的模型因为一些内部公司事件而崩溃时,这将会是一次不愉快的经历。这对于开源模型来说并不是一个问题。您对部署的模型拥有完全控制权。您对数据和模型都有主权。但是是否可以用GPT代替开源模型?值得庆幸的是,许多开源模型已经达到或超过了GPT-3.5模型的性能。本文将探讨一些性能最佳的开源LLMs和LMMs替代方案。 学习目标 讨论开源大型语言模型。 探索最先进的开源语言模型和多模态模型。 对大型语言模型进行轻量化介绍。 了解在本地和云端运行LLMs的工具和服务。 本文作为数据科学博文马拉松的一部分发表。 什么是开源模型? 当模型的权重和架构是自由可用的时,我们称之为开源模型。这些权重是大型语言模型的预训练参数,例如Meta的Llama。这些通常是基础模型或未经调优的原始模型。任何人都可以使用这些模型,并将其在自定义数据上进行微调,以执行下游操作。 但是它们是否是真正的开源?数据呢?由于有关版权内容和数据敏感性的种种问题,大多数研究实验室都不会公开发布训练基础模型时所使用的数据。这也涉及到模型的许可问题。每个开源模型都有类似于任何其他开源软件的许可证。许多基础模型(例如Llama-1)配有非商业许可证,这意味着您不能使用这些模型来赚钱。但是像Mistral7B和Zephyr7B这样的模型配有Apache-2.0和MIT许可证,可以在任何地方使用而不会有顾虑。 开源替代方案 自从Llama发布以来,开源领域一直在追赶OpenAI模型。迄今为止,取得了令人鼓舞的成果。在GPT-3.5发布一年内,我们已经拥有了参数更少但在性能上与GPT-3.5相媲美甚至更好的模型。但是GPT-4仍然是执行从推理和数学到代码生成等各种一般任务的最佳模型。进一步观察开源模型领域的创新和资金支持的步伐,我们很快将会有越来越接近GPT-4性能的模型。现在,让我们讨论一些出色的开源模型的替代方案。 Meta’s Llama 2 Meta在今年7月发布了他们最好的模型Llama-2,并因其令人印象深刻的能力而迅速走红。Meta发布了四个不同参数规模的Llama-2模型,分别是Llama-7b、13b、34b和70b。这些模型在各自的类别中足以击败其他开源模型。但是现在,诸如mistral-7b和Zephyr-7b等多个模型在许多基准测试中优于较小的Llama模型。Llama-2 70b仍然是其类别中最好的之一,可以作为GPT-4在摘要、机器翻译等任务上的替代品。 Llama-2在许多基准测试中表现优于GPT-3.5,并且能够接近GPT-4,使其成为GPT-3.5甚至在某些情况下是GPT-4的一个有价值的替代品。以下图表是由Anyscale提供的Llama和GPT模型的性能比较。 有关Llama-2的更多信息,请参阅HuggingFace上的博客。这些LLM经过微调后在自定义数据集上表现良好。我们可以对模型进行微调,以在特定任务中发挥更好的性能。 不同的研究实验室也发布了经过微调的Llama-2版本。这些模型在许多基准测试中显示出比原始模型更好的结果。这款经过微调的Llama-2模型,Nous-Hermes-Llama2-70b,由Nous Research经过超过300,000个自定义指令进行了微调,使其比原始的meta-llama/Llama-2-70b-chat-hf更好。 查看HuggingFace的排行榜。您可以找到比原始模型效果更好的经过微调的Llama-2模型。这是开源模型的优点之一。根据需求,可以选择多种模型。 Mistral-7B Mistral-7B发布以来,它已成为开源社区的宠儿。它的性能要远远优于同类模型,并接近GPT-3.5的能力。这个模型可以在许多情况下替代Gpt-3.5,比如摘要、改写、分类等。…

Leave a Comment

“自动聚类的启动:探索多智能体框架的基础知识”

介绍 踏上一段激动人心的旅程,探索多智能体框架的基础知识,并进入软件开发的未来,这就是“自动产生:探索多智能体框架基础”的主题。在OpenAI的ChatGPT之后,一个名为LLM(LLM agent)的专业领域正在经历前所未有的飞速发展,彻底改变了AI代理开发。从自动化繁琐任务到解决动态决策中的挑战,LLM代理正在挑战曾经被认为不可能的界限。 随着我们进入空间计算时代,设想一个世界,计算机与现实无缝融合,AI代理的重要性变得至关重要。想象一下通过语言和手势指令代理完成任务,具有无与伦比的推理和行动能力。然而,我们正处于AI代理革命的黎明期,见证着新的基础设施、工具和框架的诞生,这些赋予代理应对越来越复杂任务的能力。剪裁多智能体聊天系统的先进框架Autogen,在我们的探索中扮演重要的角色。 在这篇文章中,让我们一起揭开AI代理革命的早期阶段的细节,深入了解Autogen的能力,并探索如何让这些智能实体焕发生机。 学习目标 了解什么是LLM代理 学习Autogen是什么,并探索使用Autogen构建代理的基础知识 使用Autogen和OpenAI API构建代理 探索LLM代理的现实世界应用案例 本文是《数据科学博文马拉松》的一部分。 什么是LLM代理? 传统的语言模型在许多方面都表现出色,例如翻译、问答等。然而,它们的知识和能力是有限的。这就像是一名泥瓦工在修筑房子时缺少工具一样。然而,有观察发现,LLM代理在给予必要的工具后能够进行推理和行动。大多数LLM代理对世界的了解有限,但我们可以通过提示将它们与自定义来源的信息进行增强。 我们可以通过两种方法实现这一目标:检索增强生成和LLM代理。在检索增强生成中,我们通过自定义的硬编码流程将信息提供给模型。但对于代理来说,基于其推理,LLM代理将利用其掌握的工具。例如,带有Serp工具的GPT-4将浏览互联网并相应地回答,或者在可以访问雅虎金融工具时,它可以获取和分析股票表现。因此,LLM模型、工具和用于推理和采取行动的框架的组合就是AI代理的概念。 构建LLM代理的平台和工具急剧增长。Autogen就是其中之一。让我们了解一下Autogen是什么,以及如何使用它来创建LLM代理。 什么是Autogen? Autogen是微软推出的一款面向构建稳定多智能体应用的开源工具。该工具从头开始设计,充分考虑到多智能体之间的通信。它允许我们创建LLM应用程序,其中多个代理互相对话以找到解决方案。这些代理是高度可定制的,意味着我们可以引导它们执行特定的任务。它还与Langchain工具生态系统完美集成,这意味着我们可以利用现有的Langchain工具来增强我们的代理。 为了完成任务,Autogen提供了不同类型的代理,包括: 助理代理:负责完成编码、审核等任务 用户代理:如其名称所示,这些代理代表最终用户行动。这些代理将人类引入代理循环,以引导对话 可教授代理:该代理被配置为易于教授。我们可以向代理提供LLM中缺失的显式信息 我们在大多数情况下只需要一个助理代理和用户代理进行配置。所以,让我们看看如何使用 Autogen 配置代理。RAG…

Leave a Comment

LLM邮件效率的下一个前沿

介绍 人工智能(AI)在过去几年中取得了显著的发展,主要归功于大型语言模型(LLMs)的兴起。这些复杂的AI系统,在包含丰富人类语言的大量数据集上进行训练,推动了众多技术的进步。LLMs的规模和复杂性,例如GPT-3(生成预训练变压器3),使它们成为自然语言理解和生成的前沿。本文重点介绍了LLMs在改革电子邮件回复生成和分类方面的关键作用。随着我们的数字通信环境的演变,对电子邮件的高效、上下文感知和个性化回复的需求越来越关键。LLMs具有重塑这一领域的潜力,通过提供增强沟通效率、自动化重复任务和增强人类创造力的解决方案。 学习目标 追溯语言模型的演变,了解关键里程碑,并从基础系统到GPT-3.5等高级模型的发展中获得洞察力。 导航大型语言模型的复杂性。在探索细调和迁移学习中面临的挑战和创新解决方案的同时,他们将积极理解数据准备、模型架构和必要的计算资源。 研究大型语言模型如何改变电子邮件沟通。 了解语言模型如何优化电子邮件的分类过程。 本文作为数据科学博文马拉松的一部分发表。 了解大型语言模型 大型语言模型,即LLMs,在人工智能领域,特别是在理解人类语言方面,具有重要的进展。它们擅长理解和生成类似人类的文本。人们对它们感到兴奋,因为它们擅长各种语言任务。要理解LLMs的概念,有两个关键方面是必要的:它们是什么以及它们如何工作。 什么是大型语言模型? 在它们的核心,大型语言模型就像拥有广泛网络连接的卓越计算机程序。它们的独特之处在于它们的规模庞大。它们经过对包括书籍、文章、网站和社交媒体帖子等各种文本数据集的预训练。这个预训练阶段使它们接触到人类语言的复杂性,使它们学会语法、句法、语义甚至一些常识推理。重要的是,LLMs不仅仅是机械地复制学到的文本,而是能够生成连贯且具有上下文相关性的回答。 最著名的LLMs之一是GPT-3,它代表了生成预训练变压器3。 GPT-3拥有惊人的参数数量,准确说是1,750亿个,这使它成为最大的语言模型之一。这些参数代表了其神经网络中的权重和连接,并通过微调来使模型能够根据前文提供的上下文预测句子中的下一个单词。这种预测能力被用于各种应用,从电子邮件回复生成到内容创作和翻译服务。 实质上,像GPT-3这样的LLMs位于尖端人工智能技术和复杂的人类语言的交汇处。它们可以流利地理解和生成文本,使它们成为具有广泛影响的多功能工具,适用于各种行业和应用。 培训过程和类似GPT-3的模型 大型语言模型的培训过程是一项复杂而资源密集的工作。它始于从互联网获取大量文本数据集,涵盖多种来源和领域。这些数据集构成了模型构建的基础。在培训过程中,模型通过优化其神经网络,调整其参数的权重以最小化预测错误来学习预测给定前文上下文情况下单词或单词序列的可能性。 GPT-3架构概述 GPT-3,或称“生成式预训练变压器3”,是由OpenAI开发的最先进的语言模型。它的架构基于变压器模型,通过采用自我关注机制,革新了自然语言处理任务。 变压器架构: 2017年Vaswani等人推出的变压器架构在GPT-3中起到了关键作用。它依赖于自我关注,使模型在进行预测时能够衡量序列中不同单词的重要性。这个注意机制使模型能够充分考虑句子的整个上下文,有效地捕捉长程依赖。 GPT-3的规模: GPT-3之所以特别出色,是因为它具有前所未有的规模。它拥有庞大的参数数量,共计1750亿个,使其成为当时最大的语言模型。这种巨大的规模有助于它理解和生成复杂的语言模式,使其在各种自然语言处理任务中具有高度的灵活性。 分层架构: GPT-3的架构非常分层。它由许多叠加在一起的变压器层组成。每一层都会提炼输入文本的理解,使模型能够掌握层次特征和抽象表示。这种深度的架构有助于GPT-3捕捉语言中复杂细微之处。…

Leave a Comment

OpenAI面临需求激增:暂停ChatGPT Plus注册

OpenAI(开放AI),人工智能领域的先驱,面临着需求激增的压力,因此暂时停止了新的订阅ChatGPT Plus高级服务的注册。首席执行官山姆·奥尔特曼(Sam Altman)在DevDay之后的使用激增上表示,其容量存在挑战,并强调致力于确保卓越的用户体验。 暂停和用户通知 奥尔特曼在X(前身为Twitter)上分享了DevDay后的激增超出了他们的容量,导致ChatGPT Plus新用户注册的暂时停止。在这一暂停期间,像先进的GPT-4 Turbo和自定义GPT等功能都将暂停提供。尽管如此,用户被鼓励在应用程序内进行签约,以确保在订阅重新开放时迅速获得增强功能的访问。 DevDay的影响和GPT创新 需求激增归因于OpenAI在2023年的DevDay上发布的生成式预训练转换器(GPT)。这些GPT赋予开发者和企业以强大的能力,实现各种应用,包括在Canva等平台上进行图形设计。会议展示了超过5,000个GPT,让用户可以轻松地构建模型,无需编码。 容量之外的挑战 – 停机和GPT-5开发 OpenAI不仅面临容量问题的挑战,最近ChatGPT的停机也暗示了可能的分布式拒绝服务(DDoS)攻击。对攻击来源和动机的调查正在进行中。与此同时,该公司正在秘密进行GPT-5的研发,奥尔特曼透露其训练需要大量增加数据量。数据将从公共数据集和来自私人公司的专有数据中提取。 我们的观点 在OpenAI应对需求激增的同时,ChatGPT Plus注册临时暂停反映了确保无缝用户体验的承诺。通过GPT-4 Turbo的创新进展以及对GPT-5的期待,OpenAI坚定不移地致力于推动人工智能的边界。用户热切期待订阅重新开放时,人工智能领域将继续发展,OpenAI在不久的将来将有更多的突破性发展。

Leave a Comment

“Doctran和LLMs:分析消费者投诉的强大组合”

引言 在如今竞争激烈的市场中,企业努力理解并有效解决消费者投诉。消费者投诉可以揭示各种问题,包括产品缺陷、差劲的客户服务、计费错误和安全问题。它们在企业和客户之间的反馈(关于产品、服务或体验)循环中发挥着关键作用。分析和理解这些投诉可以为产品或服务改进、客户满意度和整体业务增长提供宝贵的见解。在本文中,我们将探讨如何利用Doctran Python库来分析消费者投诉,提取见解并做出数据驱动的决策。 学习目标 在本文中,您将: 了解Doctran Python库及其主要功能 了解Doctran和LLMs在文档转换和分析中的作用 探索Doctran支持的六种文档转换类型,包括提取、删除、询问、精炼、总结和翻译 全面了解将消费者投诉的原始文本数据转化为可行动见解的方法 了解Doctran的文档数据结构,使用ExtractProperty类来定义提取属性的模式 本文作为数据科学博客马拉松的一部分发布。 Doctran Doctran是一种先进的Python库,用于文档转换和分析。它提供了一组函数来预处理文本数据,提取关键信息,分类,询问,总结信息,并将文本翻译成其他语言。Doctran利用OpenAI GPT型模型和开源NLP库等LLMs(大型语言模型)对文本数据进行解析。 它支持以下六种类型的文档转换: 提取:从文档中提取有用的特征/属性。 删除:在将数据发送给OpenAI之前,从文档中删除个人可识别信息(PII),如姓名、电子邮件地址、电话号码等。它在内部使用spaCy库删除敏感信息。 询问:将文档转换为问答格式。 精炼:从文档中消除与预定义主题无关的任何内容。 总结:将文档表示为简洁、全面且有意义的摘要。 翻译:将文档翻译成其他语言。 该集成还可在LangChain框架的document_transformers模块中使用。LangChain是一个先进的构建LLM支持应用程序的框架。 LangChain提供了灵活性,可以探索和利用各种开源和闭源的LLM模型。它无缝连接到多样化的外部数据源,如PDF、文本文件、Excel电子表格、PPT等。它还支持尝试不同的提示,进行提示工程,利用内置的链式和代理,等等。 在Langchain的document_transformers模块中,有三种实现:DoctranPropertyExtractor、DoctranQATransformer和DoctranTextTranslator。它们分别用于提取、询问和翻译文档转换。…

Leave a Comment

介绍OpenAI函数调用

根据《福布斯》的报道,AI市场预计到2030年将达到1811.8亿美元。引入OpenAI API模型,如Davinci、GPT Turbo、GPT Turbo 3.5或GPT 4,已经在人工智能领域引起了轰动。OpenAI API模型的引入,如Davinci、GPT Turbo、GPT Turbo 3.5或GPT 4,已经在人工智能领域引起了轰动。 随着OpenAI API语言模型的出现,AI领域发生了变化,这些模型具有许多功能,但在数据提取方面存在一些限制。工程师们通过函数调用来克服这一限制,简化他们的工作。由于其先进的功能,OpenAI函数调用在开发人员和工程师中迅速流行起来。 Open AI函数调用的需求 在技术中心的领域中,Open AI语言模型以其聊天式和文本生成模型主导了所有机器学习模型。 传统上,工程师们在Open AI API中使用提示工程来获取适当的响应,并使用正则表达式(RegEx)来处理非结构化数据。尽管正则表达式是有效的,但开发人员必须使用耗时的复杂提示来获得期望的结果。 OpenAI函数调用于2023年6月推出,有助于解决这个问题。它使OpenAI API更加友好,减少了对正则表达式的需求。GPT Turbo 3.5和GPT 4模型巧妙地使用函数调用作为扩展支持,其作为提取结构化数据的蓝图。…

Leave a Comment

语言复兴的生成AI

简介 语言不仅仅是沟通的形式,更是文化、身份和遗产的储藏室。然而,许多语言面临灭绝的风险。语言复兴旨在扭转这个趋势,生成式人工智能已经成为这一努力中的强大工具。 语言复兴对于保护濒危语言和文化遗产至关重要。生成式人工智能凭借其自然语言处理能力,在这一任务中具有重要作用。本指南将探讨以下内容: 如何利用生成式人工智能进行语言复兴 实用的Python实现 了解语音合成、文本生成和度量 本文作为“数据科学博文马拉松”的一部分发表。 理解语言复兴 语言复兴涉及到振兴濒危或休眠语言的努力。它包括语言文献记录、教学和语言资源的创建。 理解AI语言复兴意味着认识到人工智能在保护和复兴濒危语言方面的变革潜力。人工智能系统,特别是GPT-3等自然语言处理(NLP)模型,可以理解、生成和翻译语言,使其成为记录和教学濒危语言的宝贵工具。这些由人工智能驱动的倡议可以创建大规模的语言语料库、自动翻译服务,甚至是互动式语言学习应用程序,使语言复兴更加可行。 此外,人工智能还可以为创作具有文化敏感性的内容做出贡献,促进语言和文化遗产之间的更深层次的联系。通过理解人工智能在语言复兴中的微妙挑战和机遇,利益相关者可以利用这项技术弥合语言差距,吸引年轻一代,确保这些语言蓬勃发展。 最终,AI语言复兴是一项多学科的努力,将语言学家、社区和技术人员汇聚在一起,以保护语言多样性,保存濒危语言所编码的丰富人类文化图谱。 生成式人工智能和自然语言处理 基于深度学习的生成式人工智能可以理解和生成类似人类的文本。自然语言处理(NLP)致力于使计算机能够理解、解释和生成人类语言。 构建语言语料库 在应用生成式人工智能之前,您需要一个大规模的语言数据集。本节将介绍如何收集、组织和预处理用于人工智能应用的语言数据。 使用Python和GPT-3生成文本 OpenAI的GPT-3是一个可以生成类似人类文本的强大语言模型。我们将指导您设置OpenAI API并创建Python实现,用于在目标语言中生成文本。 # 使用GPT-3生成文本的Python代码import openai# 设置OpenAI API密钥api_key =…

Leave a Comment

如何使用ChatGPT在Google Sheets中

介绍 Google Sheets是一款广泛使用且知名的电子表格应用程序。多年来,它已经确立了自身作为数据管理和分析的关键资源。然而,对于没有扎实的数据分析或编程基础的人来说,充分发挥Google Sheets的潜力可能会是一项具有挑战性的任务。在这里,ChatGPT for Google Sheets通过提供解决方案来改变体验。 人工智能(AI)正在不断重新定义我们在不断发展的技术世界中与数字VoAGI互动的方式。使用ChatGPT for Google Sheets扩展了用户的选择,并使数据相关任务变得比以往任何时候都更容易、更合乎逻辑和更有效。你只需要一个OpenAI账户和Google Sheets即可发挥AI的力量! 使用ChatGPT附加组件 GPT-3可以解释高级提示和命令,因此将GPT-3与Google Sheets和Google Script集成在一起并不构成挑战。对此函数的调用创建了一个定制的操作,该操作在调用时向OpenAI API发出请求,并附带相关提示。 设置ChatGPT集成 ChatGPT API是一个扩展,它允许你将ChatGPT的功能整合到你的程序、商品或服务中。你可以利用ChatGPT的潜力,为请求提供类似人类的答案,并进行非正式的对话。 它可以处理大量数据并与多个系统和平台无缝集成。此外,它使程序员能够根据特定需求定制框架,从而提高所产生内容的准确性和适用性。 它使用自然语言处理(NLP)理解和生成类似人类的回应。这非常适用于构建AI聊天机器人、虚拟助手和其他交互式服务。 在Google Sheets中启用API访问 GPT…

Leave a Comment

“机器学习工程师的LLMOps入门指南”

介绍 OpenAI发布的ChatGPT引发了人们对大型语言模型(LLMs)的兴趣,现在人人都在谈论人工智能。但这不仅仅是友好的对话;机器学习(ML)社区引入了一个新术语叫做LLMOps。我们都听说过MLOps,但LLMOps又是什么呢?嗯,这就是关于如何在整个生命周期中处理和管理这些强大的语言模型的一切。 LLMs正在改变我们创建和维护基于人工智能的产品的方式,这种转变导致了对新工具和最佳实践的需求。在本文章中,我们将详述LLMOps及其背景。我们还将探讨如何使用LLMs构建人工智能产品与传统机器学习模型的区别。此外,由于这些区别,我们还将比较MLOps(机器学习运营)与LLMOps的不同之处。最后,我们将讨论在LLMOps领域可以预期的令人兴奋的发展。 学习目标: 深入了解LLMOps及其发展。 通过示例学习使用LLMOps构建模型。 了解LLMOps与MLOps的区别。 对LLMOps的未来有所了解。 本文作为数据科学博文马拉松的一部分发表。 什么是LLMOps? LLMOps代表着大型语言模型操作,类似于MLOps,但专门为大型语言模型(LLMs)设计。它需要使用新的工具和最佳实践来处理与LLM驱动的应用程序有关的一切,从开发到部署和持续维护。 为了更好地理解这个概念,让我们来解释一下LLMs和MLOps的含义: LLMs是可以生成人类语言的大型语言模型。它们拥有数十亿的参数,并且是在数十亿的文本数据上进行训练的。 MLOps(机器学习运营)是一组用于管理机器学习驱动应用程序生命周期的工具和实践。 现在我们已经解释了基本概念,让我们更深入地探讨这个话题。 关于LLMOps的热潮是什么? 首先,像BERT和GPT-2这样的LLMs自2018年以来就已经存在。然而,现在,在近五年后,我们才遇到了LLMOps这个概念的迅猛崛起。主要原因是LLMs在2022年12月发布ChatGPT时受到了很多媒体的关注。 自那时以来,我们看到了许多不同类型的应用程序充分利用LLMs的强大能力。这包括从熟悉的ChatGPT之类的聊天机器人,到用于编辑或摘要的更个人化的写作助手(例如Notion AI),以及用于文案撰写的高效助手(例如Jasper和copy.ai)。它还包括用于编写和调试代码的编程助手(例如GitHub Copilot)、测试代码的助手(例如Codium AI)以及识别安全问题的助手(例如Socket AI)。 随着越来越多的人将LLM驱动的应用程序开发和投入生产,人们开始贡献他们的经验。 “用LLMs做一些酷炫的东西很容易,但让它们适合投入生产非常困难。” –…

Leave a Comment

无需编码,训练自己的LLM

介绍 生成式人工智能是一个引人入胜的领域,它承诺改变我们与技术互动和生成内容的方式,并已席卷全球。在本文中,我们将探索大型语言模型(LLMs)的迷人领域,它们的构建模块,封闭源LLMs带来的挑战以及开源模型的出现。我们还将深入探讨H2O的LLM生态系统,包括h2oGPT和LLM DataStudio等工具和框架,使个人能够在没有深入编码技能的情况下训练LLMs。 学习目标: 了解大型语言模型(LLMs)的生成式人工智能的概念和应用。 认识封闭源LLMs的挑战和开源模型的优势。 探索H2O的LLM生态系统,以实现无需深入编码技能的人工智能训练。 LLMs的构建模块:基础模型和微调 在我们深入研究LLMs的细节之前,让我们先了解生成式人工智能的概念。在以预测性人工智能为主,基于历史数据模式进行预测的同时,生成式人工智能则颠覆了这一模式。它赋予了机器从现有数据集中创建新信息的能力。 想象一下,一个机器学习模型不仅能够预测,还能生成文本、概括内容、分类信息等,这一切都来自于一个模型。这就是大型语言模型(LLMs)的作用。 LLMs采用多步骤的过程,首先是一个基础模型。这个模型需要一个庞大的数据集进行训练,通常是以TB或PB为单位的数据。这些基础模型通过预测序列中的下一个单词来学习,目的是理解数据内部的模式。 一旦建立了基础模型,下一步是微调。在此阶段,使用经过精心策划的数据集进行有监督微调,将模型塑造成所需的行为。这可能涉及训练模型执行特定任务,例如多选题选择、分类等。 第三步是强化学习与人类反馈,进一步提升模型的性能。通过使用基于人类反馈的奖励模型,模型微调其预测,使其更加贴近人类的偏好。这有助于减少噪音并提高响应的质量。 这个过程中的每一步都有助于提高模型的性能并减少不确定性。值得注意的是,基础模型、数据集和微调策略的选择取决于具体的用例。 封闭源LLMs的挑战和开源模型的崛起 封闭源LLMs,如ChatGPT、Google Bard等,已经证明了它们的有效性。然而,它们也带来了一些挑战。这些挑战包括数据隐私问题、定制和控制能力有限、高运营成本以及偶尔的不可用性。 组织和研究人员已经认识到需要更易于访问和定制的LLMs。为此,他们开始开发开源模型。这些模型具有成本效益、灵活性,并可以根据特定要求进行定制。它们也消除了将敏感数据发送到外部服务器的担忧。 开源LLMs使用户能够训练自己的模型并访问算法的内部工作原理。这个开放的生态系统提供了更多的控制和透明度,为各种应用提供了一个有希望的解决方案。 H2O的LLM生态系统:无需编码的LLM训练工具和框架 H2O是机器学习领域的一家重要参与者,他们开发了一个强大的LLM生态系统。他们的工具和框架可以在无需深入编码专业知识的情况下进行LLM训练。让我们来探索其中的一些组件。 h2oGPT h2oGPT是一个可以在自己的数据上进行训练的经过微调的LLM。最棒的部分是,它完全免费使用。通过h2oGPT,您可以尝试使用LLMs,甚至商业应用。这个开源模型使您能够探索LLMs的能力,而无需面对财务障碍。 部署工具 H2O.ai…

Leave a Comment

揭示GPT-4和可解释的人工智能(XAI)的未来

介绍 在不断发展的人工智能(AI)世界中,GPT-4是一种人类般的文本生成奇迹。就像与一个能说你的语言的机器聊天一样。但这里有个转折:AI需要的不仅仅是华丽的词句。我们必须理解它的思维方式,并决定我们是否可以信任它。这就是可解释的AI(XAI)登上舞台的地方。在本文中,您将了解未来的AI将如何与GPT-4和可解释的AI(XAI)一起发展,并填补这个差距。 学习目标 了解GPT-4:了解GPT-4是什么,它的能力以及为什么它在人工智能中至关重要。 探索可解释的AI(XAI):探索可解释的AI(XAI)的含义,为什么它很重要以及如何提高AI的透明度。 探索XAI的工作原理:深入了解XAI的工作原理,从输入数据到用户界面。 了解实际应用示例:了解GPT-4与XAI有和没有的情况下如何影响您的日常生活。 学习集成方法:了解如何使用代码示例将GPT-4与XAI集成。 确定应用案例:探索在医疗、法律和金融领域的实际应用。 本文作为数据科学博文马拉松的一部分发布。 了解GPT-4 来源- shift delete.Net 在我们深入了解XAI之前,让我们首先掌握GPT-4的要义。”生成式预训练变形器4“是OpenAI的语言模型系列的最新版本。它以生成连贯且上下文相关的文本而闻名。GPT-4的改进包括更大的训练数据集、更多的参数和改进的微调能力。这些特点使其成为各种应用中的强大工具,从内容生成到聊天机器人。 可解释的AI(XAI)的需求 什么是可解释的AI? 可解释的AI(XAI)是一种使AI系统更透明和可理解的方式。它帮助我们了解为什么AI做出某些决策,使我们更容易信任和使用在关键领域如医疗和金融中的AI。 来源- Rachel 随着AI系统越来越多地融入我们的生活,确保它们不是”黑匣子”变得至关重要。黑匣子AI模型,如一些神经网络的迭代版本,做出决策时没有提供其推理过程的见解。这种缺乏透明度带来了挑战,特别是在关键的医疗、金融和法律应用中。 想象一下由AI系统生成的医疗诊断。虽然诊断可能是准确的,但理解为什么AI得出这个结论同样重要,特别是对于医生和患者来说。这就是可解释的AI(XAI)发挥作用的地方。 XAI专注于创建能够产生结果并解释其决策的AI模型。通过提高透明度,”XAI旨在在AI系统中建立信任和责任感”。 可解释的AI(XAI)的工作原理 来源-…

Leave a Comment

生成式人工智能从GPT-3.5转向GPT-4之旅

介绍 从GPT-3.5到GPT-4在生成人工智能(AI)领域的转变标志着语言生成和理解的一个重大飞跃。GPT-4是“生成预训练变压器4”的简称,是迭代改进的成果,利用改进的架构和训练方法。 虽然GPT-3.5展示了在理解上下文和生成连贯文本方面的令人印象深刻的能力,但GPT-4进一步推动了这一发展轨迹。通过整合精细调整的训练数据、更大的模型尺寸和增强的微调技术,GPT-4产生了更精确和上下文感知的响应。 这一旅程凸显了人工智能语言能力卓越追求的不懈努力,突显了人工智能演进的迭代性质。从内容创作到客户服务,GPT-4在各个领域的应用展示了它改变人机交互的潜力。 GPT-4凸显了生成型人工智能的潜力,思考了技术的迅速演进。这一转变标志着一个精炼的里程碑,将人工智能引向深入的类人语言理解和生成。 学习目标 了解推动GPT-4丰富语言能力的基本技术进展。 解决道德复杂性,处理偏见和错误信息的影响。 探索GPT-4对行业、通信和社会的深远影响。 与GPT-4进行对话式发现,揭示其创造力。 想象GPT-4在塑造未来人工智能领域和创造力方面的作用。 在组织和行业中培养道德的人工智能整合方法。 本文作为数据科学博客马拉松的一部分发表。 揭开生成型人工智能语言模型的演进 探索人工智能的动态领域,创新扩展了人类成就的界限,我们深入探讨了生成型人工智能语言模型的故事,从GPT-3.5到具有变革性的GPT-4的里程碑。将这一旅程想象为技术智慧的叙事,每个阶段代表了在AI中复制人类语言的里程碑,从早期的语言处理到神经网络。GPT-3.5的背景凸显了GPT-4到来的重要性,这是一个超越数字的飞跃,为语言理解开启了新时代。一个时间轴或齿轮融合之类的图像可以在视觉上增强这个叙事。GPT-4体现了人类智慧和技术的融合,是AI生成语言未来的门槛。从GPT-3.5过渡到GPT-4标志着一个深刻的转变;我们的旅程展开,探索其中的影响、进步和更广阔的视野。 GPT-3.5的出现凸显了GPT-4的重要性,超越了数字的转变。它标志着一个转折点,超越了简单的数字,而是引领了一种语言理解和生成相互交织,重新构想沟通方式的时代。视觉隐喻,如时间轴展示语言AI进展的进程或齿轮融合象征着语言生成背后复杂的机制,可以增强这个叙事的共鸣。GPT-4不仅是AI进步的象征,也是人类智慧和技术实力之间的桥梁,是AI生成语言未来的门户。当我们从GPT-3.5过渡到GPT-4时,这种深刻的转变成为我们探索的核心,引导我们深入探讨其中的影响、进步以及在AI领域中展开的广阔视野。 GPT-3.5的架构 自注意机制 自注意机制是变压器架构的关键要素。它允许模型在一个序列中相对于特定单词对不同单词的重要性进行加权。这个机制捕捉到单词之间的关系和依赖性,使模型能够理解上下文。 多头注意力 在GPT-3.5中,与其他Transformer模型一样,自注意力机制被用于多个“头”或子注意力机制。每个头关注输入序列的不同方面,为模型提供捕捉各种关系和模式的能力。 位置编码 Transformer模型对于序列中单词的顺序没有固有的知识,而这对于语言理解是必不可少的。为了解决这个问题,位置编码被添加到输入嵌入中。这些编码提供关于序列中单词位置的信息,使模型能够理解语言的顺序性。 前馈神经网络 每个Transformer层包含处理多头注意力层输出的前馈神经网络。这些网络由全连接层和非线性激活函数组成,帮助模型捕捉数据中的复杂模式。…

Leave a Comment

人工智能狂热:是否正在走向破灭的泡沫?

2021年加密货币繁荣后,人工智能(AI)领域引起了风险投资家(VCs)的巨大兴趣。然而,随着关注点从加密货币转向人工智能,人们开始担心人工智能热潮的可持续性。一些潜在弱点的迹象正在浮出水面,表明人工智能热潮可能即将结束。本文探讨了当前人工智能市场的现状,对GPU的过度依赖,对知识产权的缺乏以及市场饱和的迹象,这些迹象可能导致人工智能泡沫破裂。 也可阅读:中国的十亿美元赌注:百度14.5亿美元人工智能基金标志着自给自足的人工智能新时代 人工智能超越加密货币成为风险投资的关注点 在2022年的加密货币低迷期之后,风险投资家寻求避风港,并在人工智能领域找到了它。2022年末,由OpenAI推出的ChatGPT标志着人工智能在风险投资市场上的主导地位。这一突破引领了谷歌、微软和Facebook等科技巨头加入人工智能狂潮,进一步推动了人工智能初创公司的增长。 也可阅读:KPMG押注超过20亿美元的人工智能,目标收入达120亿美元 人工智能融资狂潮:数百万美元投入初创公司 人工智能初创公司获得了大量的资金,投资轮次令人瞠目结舌。Jasper AI、Anthropic和Inflection AI只是筹集了数十亿美元的资本的几个例子。PitchBook的调查显示,人工智能市场迅速从一个沉寂的研究领域转变为投资者的利润丰厚的游乐场。 也可阅读:AWS和Accel推出“ML Elevate 2023”以推动印度人工智能初创公司生态系统的发展 GPU短缺:追逐高性能硬件 尽管投资令人印象深刻,但人工智能初创公司面临着一个重大挑战,即GPU的严重短缺。筹集的大部分资金被用于从Nvidia和AMD等公司购买高性能GPU。这种激烈的竞争加剧了供应链问题,引发了对这种支出的长期可行性的担忧。 也可阅读:中国的强大Nvidia人工智能芯片的隐藏市场 潜在的知识产权缺失 许多人工智能平台严重依赖于OpenAI等知名公司的API,导致它们几乎没有对知识产权的控制或所有权。随着需求下降,像Jasper AI这样的初创公司面临裁员,进一步凸显了没有强大产品壕沟的企业的脆弱性。 市场饱和和绩效下降的迹象 市场饱和正在变得明显,对ChatGPT、Bard和Bing等人工智能聊天机器人的兴趣首次下降。有关GPT-4性能不准确性增加的报道引发了对人工智能泡沫可持续性的担忧。斯坦福大学的研究显示,GPT-3.5和GPT-4的性能随时间下降,这表明可能是一个转折点。 也可阅读:芯片设计中的政府干预:对印度半导体雄心的福音还是祸害? 我们的观点 尽管人工智能无疑在各个行业中引起了革命,并在投资者中引起了热情,但市场饱和和对外部API的依赖引发了对人工智能泡沫的担忧。对GPU的过度需求和人工智能模型性能的下降进一步加重了这个泡沫的压力。人工智能热潮可能即将面临现实的检验,行业报告或潜在的破产可能导致泡沫破裂。在我们等待人工智能的未来时,投资者和开发人员必须密切关注市场,应对未来的挑战,并找到可持续的机会。

Leave a Comment

大型语言模型微调的全面指南

介绍 在过去几年中,自然语言处理(NLP)领域发生了一场令人瞩目的变革,这完全归功于大型语言模型的出现。这些复杂的模型为各种应用打开了大门,从语言翻译到情感分析,甚至智能聊天机器人的创建。 但它们的多功能性使得这些模型与众不同;将它们微调以应对特定任务和领域已经成为标准做法,释放出它们的真正潜力,将其性能提升到新的高度。在这本全面的指南中,我们将深入探讨大型语言模型的微调世界,涵盖从基础知识到高级知识的一切。 学习目标 了解微调的概念和将大型语言模型调整适应特定任务的重要性。 探索多任务、指令微调和参数高效微调等高级微调技术。 获得实际应用的实用知识,微调的语言模型在其中革新行业。 了解大型语言模型微调的逐步过程。 实施完善的微调机制。 了解标准微调和指令微调之间的区别。 本文作为数据科学博文的一部分发表。 理解预训练语言模型 预训练语言模型是在互联网上获取的大量文本数据上进行训练的大型神经网络。训练过程包括预测给定句子或序列中缺失的单词或令牌,从而使模型对语法、上下文和语义有深刻的理解。通过处理数十亿个句子,这些模型可以把握语言的复杂性,有效捕捉其细微差别。 流行的预训练语言模型示例包括BERT(双向编码器表示转换)、GPT-3(生成式预训练转换器3)、RoBERTa(经过优化的鲁棒BERT预训练方法)等等。这些模型以其出色的性能在文本生成、情感分类和语言理解等任务上表现出色。 让我们详细讨论其中一个语言模型。 GPT-3 GPT-3(生成式预训练转换器3)是一种突破性的语言模型架构,改变了自然语言生成和理解。Transformer模型是GPT-3架构的基础,它包含了多个参数,以产生出色的性能。 GPT-3的架构 GPT-3由一系列Transformer编码器层组成。每个层由多头自注意力机制和前馈神经网络组成。前馈网络处理和转换编码表示,注意力机制使模型能够识别单词之间的依赖关系和关联。 GPT-3的主要创新是其巨大的规模,它拥有令人惊叹的1750亿个参数,使其能够捕捉到大量的语言知识。 代码实现 您可以使用OpenAI API与GPT-3模型进行交互。以下是使用GPT-3进行文本生成的示例。 import openai…

Leave a Comment