Press "Enter" to skip to content

大猩猩 – 提升大型语言模型使用 API 调用的能力

照片由Valentin Jorel在Unsplash上拍摄

一个基于Finetuned LLaMA模型来提高LLMs API调用准确性和适应性

介绍

大型语言模型在其权重中能捕捉的信息量是有限的,而且它们的上下文也是有限的。因此,人们开始提出一些方法来增加这些LLMs的能力,让它们能够通过API调用访问外部资源。例如,一个LLM可能没有关于最近发生的事件的任何信息,但是通过简单的API调用到维基百科,它可以了解到那个事件并回答问题。

(图片由作者提供)

许多开发人员正在构建允许LLMs做到这一点的工具,而使用这些工具的一种简单方法是利用像Langchain🦜️🔗这样的库。

Langchain允许您实例化Agents,它们只是决定使用哪些提供的工具来解决给定任务的LLM。然而,不幸的是,Langchain中的工具数量是有限的

我们希望拥有一个可以访问数百万个API的模型,并且允许我们在合适的时间使用正确的API。

例如,这样一个模型的输入提示可能是:

帮我找一个API,使用Torch Hub将录制的语音转换为文本。

给定这个提示,模型需要理解正在被询问的内容,选择使用哪个API以及调用这个API所需的输入。

论文“Gorilla: Large Language Model Connected with Massive APIs”的作者为此目的创建了一个API数据集。事实上,该论文介绍了一个全面的APIBench数据集,其中包括HuggingFace、TorchHub和TensorHub的API,用来评估模型的能力。

基本的LlaMA模型在这个API数据集上进行了微调。数据集包含API以及如何使用这些API的说明。采用了自动生成的说明方法,通过…

Leave a Reply

Your email address will not be published. Required fields are marked *