Press "Enter" to skip to content

Tag: Prompt Engineering

2023年9月社交媒体最佳ChatGPT提示

在社交媒体的世界中导航可能会让人感到不知所措,尤其是在你想要实现特定的商业目标时无论你是初创公司、中型企业还是大型企业,拥有一个聪明的社交媒体策略是必不可少的ChatGPT不仅可以帮助你自动化任务,还可以创建与你品牌相关的引人入胜、富有洞察力的内容

Leave a Comment

Llama 2:深入探究ChatGPT的开源挑战者

“能够进行复杂推理任务的大型语言模型(LLMs)在编程和创意写作等专业领域显示出潜力然而,LLMs的世界并不仅仅是一个即插即用的天堂;在可用性、安全性和计算需求方面存在一些挑战在本文中,我们将深入探讨Llama 2的能力,同时提供一个[…]”

Leave a Comment

LLM优于强化学习-遇见SPRING:一种创新的LLM提示框架,旨在实现上下文连贯思考规划和推理能力

SPRING是一种基于LLM的策略,在需要多任务规划和推理的交互环境中胜过强化学习算法。 卡内基梅隆大学、NVIDIA、亚里尔大学和微软的一组研究人员调查了使用大型语言模型(LLM)在游戏的背景下理解和推理人类知识的可能性。他们提出了一种名为SPRING的两阶段方法,其中涉及研究学术论文,然后使用问答(QA)框架来证明所获得的知识。 关于SPRING的更多细节 在第一阶段,作者阅读了Hafner(2021)的原始论文的LaTeX源代码,提取先验知识。他们使用LLM提取相关信息,包括论文中记录的游戏机制和期望的行为。然后,他们使用类似于Wu等人(2023)的QA摘要框架生成基于提取的知识的QA对话,使SPRING能够处理多样的上下文信息。 第二阶段专注于使用LLM进行上下文推理,以解决复杂的游戏。他们构建了一个有向无环图(DAG)作为推理模块,其中问题是节点,问题之间的依赖关系表示为边。例如,问题“对于每个动作,需求是否满足?”与问题“前五个动作是什么?”在DAG中有链接,从后者到前者建立了依赖关系。 通过按拓扑顺序遍历DAG,计算每个节点/问题的LLM答案。DAG中的最后一个节点表示关于采取的最佳行动的问题,LLM的答案直接转化为环境行动。 实验和结果 “Crafter Environment”是Hafner(2021)介绍的一个拥有22个成就的开放世界生存游戏,按照深度为7的技术树进行组织。游戏被表示为一个网格世界,具有自上而下的观察和由17个选项组成的离散动作空间。观察还提供有关玩家当前库存状态的信息,包括生命值、食物、水、休息水平和库存物品。 作者将SPRING与Crafter基准测试中的流行RL方法进行了比较。随后,对体系结构的不同组成部分进行了实验和分析,以考察每个部分对LLM的上下文“推理”能力的影响。 来源:https://arxiv.org/pdf/2305.15486.pdf 作者将各种RL基准与SPRING和基于Hafner(2021)环境论文的GPT-4的性能进行了比较。SPRING在游戏得分方面超过了以前的最先进(SOTA)方法,相对提高了88%,在奖励方面相对最佳RL方法(Hafner等人,2023)提高了5%。 值得注意的是,SPRING利用了阅读论文的先验知识,并且不需要任何训练步骤,而RL方法通常需要数百万次的训练步骤。 来源:https://arxiv.org/pdf/2305.15486.pdf 上图显示了不同任务的完成率的图表,将SPRING与流行的RL基准进行了比较。在技术树较深(深度达到5)且通过随机探索难以达到的成就(如“制作石镐”、“制作石剑”和“收集铁”)方面,SPRING借助先验知识的力量,表现超过RL方法十倍以上。 此外,SPRING在成就“吃牛肉”和“收集饮料”方面表现完美。与此同时,基于模型的RL框架(如Dreamer-V3)在“吃牛肉”方面的解锁率显著较低(低了五倍),这是因为通过随机探索达到移动牛的挑战。值得注意的是,尽管通过随机探索很容易实现,但SPRING不采取“放置石头”这个行动,因为在Hafner(2021)的论文中并未讨论该行动对代理有益。 限制 使用LLM与环境进行交互的一个限制是需要进行物体识别和定位。然而,在提供准确物体信息的环境中,如当代游戏和虚拟现实世界,这个限制是不存在的。虽然预训练的视觉骨干在游戏中表现困难,但在类似真实世界的环境中表现得相当不错。视觉语言模型的最新进展表明了未来在视觉语言理解方面的可靠解决方案的潜力。 结论 总之,SPRING框架展示了语言模型(LLMs)在游戏理解和推理方面的潜力。通过利用学术论文中的先前知识和采用上下文思维链的推理,SPRING在Crafter基准测试中超越了先前的最先进方法,在游戏得分和奖励方面取得了显著的改进。这些结果突显了LLMs在复杂游戏任务中的强大能力,并暗示了未来视觉语言模型的进一步发展可以解决现有的限制,为可靠且具有普适性的解决方案铺平道路。

Leave a Comment

一项新的人工智能研究引入了方向性刺激提示(DSP):一种新的提示框架,以更好地指导LLM生成所需的摘要

自然语言处理(NLP)近年来发生了一次范式转变,引入了大型语言模型(LLMs),在各种NLP任务中表现优于之前相对较小的语言模型(LMs),如GPT-2和T5 Raffel等。提示是使用LLMs执行各种任务的事实上的方法,通过使用上下文中的自然语言指令引导LLMs生成所需的输出,而无需对参数进行更新,与传统的微调范式相反,其中LMs的参数可以针对每个下游任务进行更新。 虽然这种提示模式使得LLMs在零射击或少射击环境中在各种任务上表现出色,但它们在某些特定的下游任务上的表现仍然需要改进,并且需要额外的细化,尤其在训练数据可用的情况下。然而,由于大多数LLMs只提供黑盒推理API并且微调成本高昂,大多数用户和学者无法直接优化这些LLMs。因此,必须解决的一个困难问题是如何有效地提高LLMs在特定下游任务上的性能,有时只有有限的训练实例。来自加利福尼亚大学圣巴巴拉分校和微软的一项新研究提出了使用微小可调整LM(RL)增强冻结的黑盒LLM在下游任务上的架构,称为定向刺激提示(DSP)。 来源:https://arxiv.org/pdf/2302.11520.pdf | 图1:使用通常的提示方法和我们提出的定向刺激提示的摘要任务所使用的时间比较。我们的DSP使用可调整的策略LM生成刺激,该刺激在此示例中是关键词,然后将LLM定向为提供更好的得分或其他指标(以蓝色突出显示)的所需摘要。 更准确地说,对于每个输入文本,一个微小的LM(称为策略LM)学习提供一系列离散的令牌作为指向性刺激,这些刺激可能提供有关输入样本的某些信息或指令,而不是作为工作的通用提示。为了将LLM的生成定向到所需的目标,例如更高的性能度量得分,然后将创建的刺激与原始输入混合并提供给LLM。他们最初使用具有预训练LM的监督微调(SFT),利用少量收集的训练样本。训练的目标是最大化奖励,定义为基于策略LM生成的刺激的LLM生成的下游性能度量得分。经过进一步的优化以探索更好的刺激,经过改进的LM在RL中初始化策略LM。 图1描述了摘要任务的一个示例。为了帮助LLM基于关键词生成所需的摘要,关键词充当刺激(提示)。可以使用ROUGE等评估指标分数对策略LM进行优化,以激励它提供指导LLM生成更好摘要的关键词。虽然LLMs具有出色的生成能力,但它们经常显示出不受欢迎的行为,需要对预期的生成特征和某些下游任务的方向进行细粒度的指导。这是他们提出的方法的基础。微小的策略LM可以作为指向性刺激生成一系列令牌,以向LLM提供样本级的细粒度指导,以实现预期的目标,但不能生成类似人类语言的文本。 与以往通过提示工程/优化来找到最佳提示的研究不同,RL提供了将优化对象(例如生成刺激的小型策略LM)与LLM生成定义的优化目标之间的自然桥梁。他们的方法试图为每个“问题”提供“提示”或“线索”。它还不同于鼓励LLM在解决推理任务时生成中间推理步骤的链式思维提示。他们的方法使用一个小的可调整模型来控制和引导LLM,并针对不仅有一个正确的“答案”的生成任务进行优化。他们在摘要和对话回复生成任务上评估了他们的框架。 创建刺激的小策略LM是一个优化的对象,但LLM的生成确定了优化目标。强化学习为弥合这个差距提供了简单的方法。与以前的研究不同,这次研究尝试通过使用提示工程或优化来澄清“问题”。他们的策略努力为每个“问题”提供“提示”或“线索”。此外,它与思维链提示不同,后者鼓励大脑在完成需要逻辑的任务时自行推理出中间步骤。他们的方法针对需要生成多个有效“响应”的任务,并采用一个简单可调的模型来调节和指导LLM。他们评估了他们的框架,用750M Flan-T5-large作为策略LM和175B Codex作为LLM进行测试。根据测试结果,当Codex依赖于经过调整的T5生成的指示时,其在下游任务上的性能显著提高。摘要应包含的关键词被用作摘要任务的指导刺激。使用从CNN/Daily Mail数据集中提取的2,000个样本训练的T5,Codex的性能已经提高了7.2%。 为了开发用于500个MultiWOZ数据集对话的目标回复背后的预期意义的对话行为,他们训练了策略LM。由于策略LM生成的对话行为,Codex的总分提高了52.5%。它的表现与先前使用完整训练数据(8438个对话)训练的系统一样好或更好。

Leave a Comment

介绍PandasAI:一款由GenAI驱动的数据分析库

介绍 在生成式人工智能领域,最近出现了激增和突破,引起了数据领域的混乱。公司们正在努力看如何充分利用这些创新,例如ChatGPT。这将帮助任何企业获得竞争优势。一种全新的前沿创新是将一种名为“PandasAI”的GenAI驱动的数据分析库引入到常规Pandas库中。OpenAI已经做到了这一点。与生成式AI的其他领域不同,PandasAI将GenAI技术应用于分析工具Pandas。 顾名思义,它直接将人工智能应用于传统的Pandas库。Pandas库在数据领域中与Python一起在预处理和数据可视化等任务中变得非常流行,而这种创新使其变得更好。 学习目标 了解新的PandasAI 使用PandasAI进行对话查询 使用PandasAI绘制图表 介绍PandasAI及其后端(GenAI) 本文是数据科学博文马拉松的一部分。 PandasAI是什么? PandasAI是一个使用生成式AI模型在pandas中执行任务的Python库。它是一个集成生成式人工智能功能的库,使用提示工程使Pandas数据框具有对话功能。当我们提到Pandas时,我们会想到数据分析和处理。通过PandasAI,我们试图通过GenAI的帮助提高我们的Pandas的生产力。 为什么使用PandasAI? 在生成式人工智能的帮助下,我们都需要给数据集提供对话提示。这带来了不需要学习或理解复杂代码的优势。数据科学家可以通过与数据集对话的方式查询数据集,使用自然的人类语言并获得结果。这样可以节省预处理和分析的时间。这是一个新的革命,程序员不需要编写代码,他们只需要说出他们的想法,然后看到他们的指令被执行。即使非技术人员也可以构建系统,而无需编写任何复杂的代码! PandasAI如何工作? 在我们看到如何使用PandasAI之前,让我们先看看它是如何工作的。我们在这里多次提到了“生成式人工智能”的术语。它作为实现PandasAI的技术。生成式人工智能(GenAI)是人工智能的一个子集,可以生成各种数据类型,包括文本、音频、视频、图片和3D模型。它通过识别已收集的数据中的模式并利用它们来创建新颖和独特的输出来实现这一目标。 另一个需要注意的是使用大型语言模型(LLMs)。PandasAI已经在LLMs上进行了训练,LLMs是由许多参数(数以千万甚至数十亿)组成的人工神经网络(ANN)模型。所有这些都有助于PandasAI背后的模型能够接受人类指令并在解释之前对其进行标记化处理。PandasAI还被设计用于处理LangChain模型,使构建LLM应用程序更加容易。 开始使用Pandas AI 现在让我们看看如何使用PandasAI。我们将看到两种使用PandasAI的方法。首先是使用LangChain模型,然后是直接实现。 使用LangChain模型 要使用LangChain模型,首先需要安装Langchain包: pip install langchain 然后我们可以实例化一个LangChain对象:…

Leave a Comment