当前位置:   article > 正文

Gorilla LLM:连接海量 API 的大型语言模型

gorilla llm

如果你对这篇文章感兴趣,而且你想要了解更多关于AI领域的实战技巧,可以关注「技术狂潮AI」公众号。在这里,你可以看到最新最热的AIGC领域的干货文章和案例实战教程。

一、前言

在当今这个数字化时代,大型语言模型(LLM)的发展突飞猛进,国内外涌现的大型语言模型(LLM)可谓是百花齐放,不管是开源还是闭源都出现了一些非常优秀的模型,然而在利用LLM进行应用开发的时候,会发现每个模型从部署、到训练、微调、API接口开发、Prompt提示词格式等方面都存在或多或少的差异,导致如果一个产品需要接入不同的LLM或者快速切换模型的时候变得更加复杂,使用没有那么方便,也不便于维护。然而,尽管 LLM 取得了巨大的进步,但面对如此多的LLM,给开发者带来了巨大的挑战,我们调用这些LLM模型时,需要查阅大量API接口文档和编写测试代码调试,而且还很容易错误地使用 API 调用。为了解决这一问题,Gorilla LLM 应运而生,它是一种基于 LLaMA 的微调模型,旨在将大型语言模型与各种通过 API 提供的服务和应用程序连接起来。

Gorilla LLM 的出现弥补了传统方法的不足,它在编写 API 调用方面表现优于 GPT-4,并且能够适应测试时文档的变化,实现灵活的 API 更新和版本更改。此外,Gorilla 还有效地解决了直接提示 LLM 时常见的幻觉问题。通过引入 APIBench,一个由 HuggingFace、TorchHub 和 TensorHub API 组成的综合数据集,我们可以评估 Gorilla LLM 的性能。成功将检索系统与 Gorilla 集成后,LLM 可以更准确地使用工具,跟上频繁更新的文档,从而提高其输出的可靠性和适用性。

前面我们介绍过的EasyLLM 《EasyLLM:简化语言模型处理,实现 OpenAI 和 Hugging Face 客户端的无缝切换》 它主要是在简化和提升处理LLM的过程。提供了兼容的客户端API,使用户能够轻松地在不同的LLM之间切换,只需修改一行代码即可实现。然后随着接入的模型增多,本身的开发量也不会少,EasyLLM需要不断的去扩展其API接口,Gorilla LLM 则是更近一步,利用大语言模型来训练学习ML API接口和文档,自动根据自然语言来识别和匹配接口及参数。极大的提高了开发人员的效率,同时对于公司产品本身的接口,我们也可以借助 Gorilla LLM 来训练,进一步升级产品交互方式,直接使用自然语言就能实现系统间的接口调用和硬件交互。

接下来将详细介绍 Gorilla LLM 的基本概念、性能优势以及如何在实际应用中发挥作用。让我们一起探索 Gorilla LLM 如何为开发人员、研究人员和用户带来更加智能、便捷的 API 调用体验。

二、Gorilla LLM 基本介绍

Gorilla LLM 是一种先进的大型语言模型(LLM),旨在通过解释自然语言查询来理解并准确调用1,600多个API。它通过使用自我指导和检索技术,选择和利用具有重叠和不断发展功能的工具。Gorilla使用全面的APIBench数据集进行评估,并在生成API调用方面超越了GPT-4的性能。

Gorilla LLM是一个与API连接的大型语言模型(LLM)。它经过大量API文档的训练,可以根据给定的自然语言问题构建正确的API调用,包括正确的输入参数。相比之前的API调用技术,Gorilla更准确,并且不太可能产生错误的API调用幻觉。对于希望自动化操作或使用API构建应用程序的开发人员来说,Gorilla是一个有用的工具。同时,对于在自然语言处理中使用API感兴趣的研究人员也可以利用它。

Gorilla LLM由加州大学伯克利分校和微软的研究人员开发。它专为API调用而设计,可以生成语义和语法正确的API调用来响应自然语言查询。例如,当您询问Gorilla“获取北京的天气”时,它将生成对OpenWeatherMap API的调用,以获取旧金山当前的天气状况。

Gorilla LLM经过在Torch Hub、TensorFlow HubHuggingFace等大型机器学习中心数据集上的训练。目前正在快速添加新领域,包括Kubernetes、GCP、AWS、OpenAPI等。Gorilla的性能优于GPT-4、Chat-GPTClaude,并且具有显著减少幻觉错误的可靠性。

最后,Gorilla LLM采用Apache 2.0许可证,并在MPTFalcon上进行微调,因此您可以在商业用途中使用Gorilla而无需承担任何义务。

2.1、主要特性

Gorilla LLM具有以下主要特性:

  • 使用自然语言查询准确调用 1,600+ API:Gorilla LLM可以通过自然语言查询准确地调用超过1,600个API。这意味着开发人员可以使用自然语言描述他们的需求,而不需要深入研究每个API的文档和细节。

  • 减少LLM的幻觉:Gorilla LLM专门针对幻觉错误进行了优化。幻觉错误是指使用错误的API或不存在的API生成的代码。通过减少幻觉错误,Gorilla LLM可以提供更可靠和准确的API调用。

  • 用户友好且可适应各种需求和工具:Gorilla LLM被设计为用户友好且灵活适应各种需求和工具。它可以根据用户的要求和环境进行定制,并提供适合不同开发场景的解决方案。

  • 开源并通过社区贡献不断发展:Gorilla LLM是开源项目,通过社区贡献不断发展和改进。这意味着开发人员可以参与到项目中,共同推动其发展,并从社区中获得支持和反馈。

  • 与其他工具集成:Gorilla LLM旨在与其他LLM工具无缝协作,例如Langchain、ToolFormer和AutoGPT。它具有良好的适应性,可以轻松集成到各种应用程序和工具链中,为开发人员提供更多选择和灵活性。

Gorilla LLM通过准确调用API、减少幻觉错误、用户友好且可适应各种需求和工具、开源并通过社区贡献不断发展以及与其他工具的集成等特性,为开发人员提供了一个强大而灵活的API调用生成解决方案。

2.2、应用场景

Gorilla可以应用于以下场景:

  1. 为移动应用程序创建新的API:使用Gorilla,开发人员可以教导LLM如何使用正确的参数和上下文来调用新的API,从而为移动应用程序创建新的功能和服务。

  2. 更新现有API以支持新功能:当需要为现有的API添加新功能或进行修改时,Gorilla可以帮助开发人员通过教导LLM正确的参数和上下文来更新API调用,以支持新的功能需求。

  3. 调试无法正常工作的API调用:当API调用出现问题时,Gorilla可以用作调试工具。通过教导LLM正确的参数和上下文,开发人员可以分析并修复无法正常工作的API调用,提高调试效率。

Gorilla可以在创建新的API、更新现有API以支持新功能以及调试无法正常工作的API调用等场景中发挥作用。它通过教导LLM正确的参数和上下文,帮助开发人员更高效地进行API集成和调试工作。

2.3、应用价值

LLM的应用价值在于解决了与API集成和任务完成相关的挑战。传统的解决方案通常基于提示,无法处理规模庞大且不断变化的API。同时,找到适合特定任务的正确API和参数也是一个困难。这不仅限于专门的API,还包括常用服务如AWS、GCP和Azure等,每个服务都提供数千个API,每个API又有多个不同的输入参数。当前的解决方法要么依赖人类专家,要么需要耗时搜索API文档和在线资源,导致构建复杂应用程序的流程效率低下且难以管理。

为了解决这个问题,Gorilla应运而生。我们相信,如果能够教会LLM如何使用正确的参数和上下文进行API调用,就可以轻松连接构建强大的LLM驱动应用程序所需的所有工具。Gorilla的目标是通过将LLM与各种工具集成,实现更高效和便捷的应用程序开发。

Gorilla的应用价值体现在以下几个方面:

  1. 解决API集成问题:Gorilla可以帮助LLM与各种API进行集成,使得LLM能够调用正确的API并传递正确的参数,从而实现与其他工具的协同工作。

  2. 提高开发效率:通过Gorilla,开发人员无需依赖人类专家或耗时搜索API文档和在线资源,可以更快速地找到适合特定任务的API和参数,提高开发效率。

  3. 简化应用程序构建:Gorilla的目标是简化构建强大的LLM驱动应用程序所需的工具集成。通过教导LLM正确使用参数和上下文进行API调用,开发人员可以轻松连接各种工具,实现复杂应用程序的构建。

总而言之,Gorilla通过解决API集成和任务完成相关的挑战,提供了一种更高效、便捷的方式来构建强大的LLM驱动应用程序。同时,Gorilla 可用于执行多种任务,包括:创建文本、翻译语言、响应查询、创建多种类型的创意材料、访问和处理来自各种来源的信息。

2.4、Gorilla LLM 的优势

Gorilla LLM相比早期传统的方法具有以下优势:

  • 提高精度:Gorilla LLM在API调用方面比早期方法更加精确。这意味着即使对于复杂的查询,开发人员也可以相信Gorilla LLM将创建正确的API调用,提高了代码的准确性。

  • 减少幻觉错误:幻觉错误是指使用错误的API或不存在的API生成的代码。这可能导致运行时错误和非功能性代码。Gorilla LLM针对大量API调用进行了专门微调,减少了出现幻觉错误的可能性。

  • 节省时间和工作量:Gorilla LLM可以帮助开发人员节省大量时间和工作。开发人员不再需要手动搜索API文档并编写代码来生成API调用;相反,Gorilla LLM可以根据特定的自然语言查询生成适当的API调用,从而节省了开发人员的时间和精力。

  • 增强的可靠性:Gorilla LLM可以帮助开发人员编写更可靠的代码,减少API调用中的错误。当开发人员编写代码来生成API调用时,可能会犯错误。Gorilla LLM可以通过生成语义和语法正确的API调用来帮助减少这些错误,提高代码的可靠性。

  • 处理有约束的API:API调用通常具有固有的限制和约束条件,要求LLM不仅要了解API的功能,还要根据不同的约束参数对调用进行分类。这增加了复杂性,要求LLM有更细致的理解。Gorilla LLM可以处理有约束的API调用,例如处理参数大小和最低精度等约束条件,从而提供更准确的结果。例如,像“调用小于 10M 参数且 ImageNet 准确率至少为 70% 的图像分类模型”这样的提示对LLM的准确解释提出了重大挑战。该模型必须理解用户对请求中嵌入约束的描述和推理。

当与文档检索系统配合使用特定 API 的提示进行查询时,该模型比其他LLM表现更好,增强了其输出的可靠性和适用性。下图突出显示了这样的结果:

Gorilla LLM通过提高精度、减少幻觉错误、节省时间和工作量、增强可靠性以及处理有约束的API等方面的优势,为开发人员提供了更高效、准确和可靠的API调用生成能力。

2.5、为什么基于 LLaMA 微调

目前来看,流行的开源模型非常多,Gorilla 为什么选择 LLaMA 而不是其他模型?是否对多个模型进行了微调和测试?

之所以选择 LLaMA 作为起点,因为它被认为是开源LLM的主力。许多其他模型都是其针对特定应用的衍生模型。当然,Gorilla 也使用了 GPT-4、GPT-3.5 和 Claude-v1 对 Gorilla 进行了基准测试。因为考虑到开源模型可商用的情况,后续又发布了两款基于 MPT-7B 和 Falcon-7B 的 Gorilla 模型。现在 Gorilla 模型使用 Apache 2.0 许可证,这意味着 Gorilla 可以在没有任何约束的情况下用于商业用途!

2.6、训练 Gorilla 的基本条件

训练 Gorilla 需要的硬件条件据官方介绍使用 8 个 A100 40GB GPU 节点来训练和评估所有模型。根据模型和 API 数据集的不同,所需时间差异很大。最短的运行总计大约 10 个 GPU 小时,而最长的运行大约 120 个 GPU 小时。同时训练过程也使用了所有最先进的计算技术(高效的注意力机制)内存优化(分片、检查点和混合精度训练)。没有使用 LoRA,所有 Gorilla 模型都经过端到端微调。

三、Gorilla 的基本原理

Gorilla LLM 接受过海量 API 文档和代码数据集的培训。该数据集包括来自各种不同平台的 API 调用,例如 Google Cloud Platform、Amazon Web Services 和 Microsoft Azure。 Gorilla 使用此数据集来学习 API 调用的语法和语义。当你要求 Gorilla 生成 API 调用时,它会首先尝试在其数据集中查找匹配的 API 调用。如果它找到匹配的 API 调用,它将简单地返回该调用。如果它没有找到匹配的 API 调用,它将根据其对 API 语法和语义的了解生成新的 API 调用。

以下是 Gorilla 连接 API 的过程涉及几个关键步骤:

  1. 用户提示:用户提供自然语言提示,描述他们希望使用 API 实现的特定任务或目标。

  2. 检索(可选):在检索模式下,Gorilla 使用文档检索器(例如 BM25 或 GPT-Index)从数据库中获取最新的 API 文档。然后,该文档会与用户提示符连接起来,并附有一条消息,指示 Gorilla 使用它作为参考。

  3. API 调用生成:Gorilla 处理用户提示(以及检索到的文档,如果适用)以生成满足用户任务或目标的适当 API 调用。这是通过 Gorilla 经过微调的 LLaMA-7B 模型实现的,该模型专为 API 调用而设计。

  4. 输出:Gorilla 将生成的 API 调用返回给用户,然后可用于与所需的 API 进行交互并完成指定的任务。

值得注意的是,Gorilla 具有很强的适应性,可以在零样本检索模式下运行,使其能够适应 API 文档的变化并随着时间的推移保持准确性。

第一个(也是最流行的)是零样本模式。在这种情况下,Gorilla 以自然语言接受用户的查询,并返回正确的 API 进行调用。现在,在很多场景中,您经常会看到 API 随着时间的推移而演变 - 这可能是版本控制,或者端点可能会发生变化,或者参数可能会被重新洗牌,或者其中一些可能会被弃用。

为了使我们的系统对此具有鲁棒性,我们引入了第二种使用 Gorilla 的模式 - 检索器感知。在这种情况下,Gorilla 会选择最相关的 API,然后将其附加到用户的提示中。这使我们能够了解 API 的变化。

四、如何安装 Gorilla LLM

要使用 Gorilla LLM,必须安装 Python 3.10 或更高版本。早期版本的 Python 无法编译。

4.1、安装 Conda

  • 如果是全新的服务器,首次需要安装Conda,在终端中,使用以下命令下载Miniconda安装脚本:
wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh
  • 使用以下命令运行安装脚本:
bash Miniconda3-latest-Linux-x86_64.sh
  • 按照安装程序的提示进行安装。您可以选择安装位置和环境变量设置等选项。

  • 安装完成后,使用以下命令激活conda环境:

 source ~/.bashrc
  • 使用以下命令检查conda是否成功安装:
conda --version

如果conda成功安装,您将看到conda的版本号,我这里安装的是conda 23.5.2。

4.2、安装 Gorilla

4.2.1、安装依赖项:
  • 要使用 Python 3.10 构建名为 gorilla 的新 Conda 环境,请使用以下命令:
conda create -n gorilla python=3.10
  • 激活 gorilla 环境:
conda activate gorilla
  • 使用以下命令安装必要的 Python 包,如果有一个名为 requirements.txt 的文件及其依赖项:
pip install -r requirements.txt
4.2.2、安装 Gorilla Delta 配重:
  • 从提供的链接获取原始 LLaMA 权重。

https://huggingface.co/docs/transformers/main/model_doc/llama

  • 下载 Hugging Face 存储库的 Gorilla delta 权重。

https://huggingface.co/gorilla-llm/gorilla-7b-hf-delta-v1

4.2.3、使用增量权重:

将以下 Python 命令中的占位符替换为正确的文件路径:

  1. python3 apply_delta.py
  2. --base-model-path path/to/hf_llama/
  3. --target-model-path path/to/gorilla-falcon-7b-hf-v0
  4. --delta-path path/to/models--gorilla-llm--gorilla-7b-hf-delta-v1

使用此命令将增量权重应用于您的 LLaMA 模型。

4.2.4、使用 CLI 进行推理:
  • 要开始使用命令行界面 (CLI) 与 Gorilla 模型交互,请使用以下命令:
  1. python3 serve/gorilla_falcon_cli.py --model-path path/to/gorilla-falcon-7b-hf-v0
  2. # 如果您在使用 Apple 芯片(M1、M2 等)的 Mac 上运行,请添加 “--device mps”
  • path/to/gorilla-7b-hf,th,tf-v0 应替换为 Gorilla 模型的真实路径。

4.3、Gorilla 代码结构

4.3.1、data 文件夹包含各种数据集,包括 API 文档和社区贡献的 APIBench 数据集。
  • api 子目录中的每个文件代表一个 API,标题为 {api_name}_api.jsonl

  • apibench 子文件夹包含 LLM 模型训练和评估数据集。它包含文件 {api_name}_train.jsonl{api_name}_eval.jsonl

  • 社区提供的 API 可以在 apizoo 子目录中找到。

4.3.2、eval 文件夹包含评估代码和输出。
  • README.md 文件包含有关评估过程的说明或数据。

  • 要接收来自 LLM 模型的回复,请使用 get_llm_responses.py 脚本。

  • 子目录 eval-scripts 包含每个 API 的评估脚本,例如 ast_eval_{api_name}.py

  • eval-data 子目录包含评估问题和答复。

  • questions 子文件夹中的问题文件按 API 名称和评估指标组织。

    • questions 子目录中,每个 API 文件夹都有标题为 questions_{api_name}_{eval_metric}.jsonl 的文件。
  • 响应文件同样按 API 名称和评估指标组织在 responses 子文件夹中。

    • 在对子文件夹的回复中,每个 API 文件夹都包含标题为 responses_{api_name}Gorilla_FT{eval_metric}.jsonlresponses_{api_name}Gorilla_RT{eval_metric} .jsonl 的文件。
4.3.3、inference 文件夹包含用于本地运行 Gorilla 的代码。
  • 此文件夹的 README.md 文件很可能包含执行推理代码的指令。

  • serve 子目录包含 Gorilla 命令行界面 (CLI) 脚本和聊天模板。

  • train 文件夹标记为“即将推出!”并且很可能应该包含 Gorilla 模型训练代码。但是,该文件夹现在似乎不可用。

您可以参考每个文件夹中的自述文件,以获取有关使用提供的代码和数据集的更具体说明和信息。

五、如何使用 Gorilla LLM

首先,使用pip安装OpenAI

pip install openai

像这样配置 apikey 和 apibase

  1. import openai
  2. openai.api_key = "EMPTY" # key可以忽略
  3. openai.api_base = "http://34.132.127.197:8000/v1" #http://zanino.millennium.berkeley.edu:8000/v1

5.1、文本翻译

使用 OpenAI 库创建获取 Gorilla 结果的函数

  1. def get_gorilla_response(prompt="我想把英语翻译成中文。", model="gorilla-falcon-7b-hf-v0"):
  2. completion = openai.ChatCompletion.create(
  3. model=model,
  4. messages=[{"role": "user", "content": prompt}]
  5. )
  6. return completion.choices[0].message.content

执行发送提示的函数和您想要使用的模型,在本例中为 gorilla-falcon-7b-hf-v0

  1. prompt = "我想从英语翻译成中文。"
  2. print(get_gorilla_response(prompt, model="gorilla-falcon-7b-hf-v0" ))

就是这样。然后,您将收到来自 Huggingface API 的完整信息以及有关如何执行该请求的说明。

  1. <<<domain>>>: Natural Language Processing Translation
  2. <<<api_call>>>: pipeline('translation_en_to_zh', model='Helsinki-NLP/opus-mt-en-zh') <<<api_provider>>>: Hugging Face Transformers
  3. <<<explanation>>>:
  4. 1. Import the pipeline function from the transformers library provided by Hugging Face.
  5. 2. Use the pipeline function to create a translation model, specifying the model 'Helsinki-NLP/opus-mt-en-zh' to be loaded. This model is trained to translate text from English to Chinese.
  6. 3. Pass your English text to the translator object, and it will return the translated Chinese text.

Gorilla HuggingFace Demo:

https://huggingface.co/spaces/davila7/try-gorilla?source=post_page

5.2、对象检测

  1. # 对象检测
  2. prompt = "我想构建一个可以检测图像“cat.jpeg”中对象的机器人。输入:['cat.jpeg']"
  3. print(get_gorilla_response(prompt, model="gorilla-falcon-7b-hf-v0"))

输出结果:

  1. <<<domain>>>: Computer Vision Object Detection
  2. <<<api_call>>>: model = DetrForObjectDetection.from_pretrained('facebook/detr-resnet-101-dc5')
  3. <<<api_provider>>>: Hugging Face Transformers
  4. <<<explanation>>>: 1. Import the necessary components from the Hugging Face Transformers library, torch, and PIL (Python Imaging Library).
  5. 2. Open the image using PIL's Image.open() function with the provided image path.
  6. 3. Initialize the pretrained DETR (DEtection TRansformer) model and the image processor.
  7. 4. Generate inputs for the model using the image processor.
  8. 5. Pass the inputs to the model, which returns object detection results.
  9. <<<code>>>:
  10. from transformers import AutoFeatureExtractor, AutoModelForObjectDetection
  11. from PIL import Image
  12. import torch
  13. def load_model():
  14. feature_extractor = AutoFeatureExtractor.from_pretrained('facebook/detr-resnet-101-dc5')
  15. model = AutoModelForObjectDetection.from_pretrained('facebook/detr-resnet-101-dc5')
  16. return feature_extractor, model
  17. def process_data(image_path, feature_extractor, model):
  18. image = Image.open(image_path)
  19. inputs = feature_extractor(images=image, return_tensors='pt')
  20. outputs = model(**inputs)
  21. results = feature_extractor.post_process(outputs, threshold=0.6)[0]
  22. response = [model.config.id2label[label.item()] for label in results['labels']]
  23. return response
  24. image_path = 'cat.jpeg'
  25. # Load the model and feature extractor
  26. feature_extractor, model = load_model()
  27. # Process the data
  28. response = process_data(image_path, feature_extractor, model)
  29. print(response)

5.3、从 Torch Hub 调用 API

  1. # Torch Hub 翻译
  2. prompt = "我想把英语翻译成汉语。"
  3. print(get_gorilla_response(prompt, model="gorilla-falcon-7b-hf-v0"))

输出结果:

{'domain': 'Machine Translation', 'api_call': \"model = torch.hub.load('pytorch/fairseq', 'transformer.wmt14.en-fr', tokenizer='moses', bpe='subword_nmt')\", 'api_provider': 'PyTorch', 'explanation': 'Load the Transformer model from PyTorch Hub, which is specifically trained on the WMT 2014 English-French translation task.', 'code': 'import torch\nmodel = torch.hub.load('pytorch/fairseq', 'transformer.wmt14.en-fr', tokenizer='moses', bpe='subword_nmt')'}"

六、基于 Gorrilla API 微调 ChatGPT-3.5

在 Gorilla api 数据集上微调 ChatGPT-3.5 以尝试提高其性能,关于OpenAI ChatGPT-3.5 微调文档可以访问这里:

https://platform.openai.com/docs/guides/fine-tuning

注意:这个微调脚本将在 OpenAI 上训练 720 万个 token,需要花费一定的费用,请在继续之前先考虑清楚是否愿意支付这笔费用。

6.1、安装依赖

pip install openai tiktoken

导入必要的模块

  1. import re
  2. import os
  3. import json
  4. import openai
  5. from pprint import pprint

设置OpenAI API Key

  1. openai_api_key = "OPENAI API KEY"
  2. openai.api_key = openai_api_key

6.2、准备数据集

下载 Gorrilla Huggingface api 训练数据,可以在这里找到所有 Gorilla 训练数据

https://github.com/ShishirPatil/gorilla/tree/main/data/apibench

wget https://raw.githubusercontent.com/ShishirPatil/gorilla/cab053ba7fdf4a3286c0e75aa2bf7abc4053812f/data/apibench/huggingface_train.json
6.2.1、加载数据
  1. data = []
  2. with open("huggingface_train.json", "r") as file:
  3. # data = json.load(file)
  4. for line in file:
  5. item = json.loads(line.strip())
  6. data.append(item)
  7. # 这是与训练有关的数据
  8. data[0]["code"]
6.2.2、数据解析

解析训练数据指令

  1. def parse_instructions_and_outputs(code_section):
  2. sections = code_section.split('###')
  3. for section in sections:
  4. if "Instruction:" in section:
  5. instruction = section.split("Instruction:", 1)[1].strip()
  6. break
  7. domain = re.search(r'<<<domain>>>(.*?)\n', code_section, re.IGNORECASE).group(1).lstrip(': ')
  8. api_call = re.search(r'<<<api_call>>>(.*?)\n', code_section, re.IGNORECASE).group(1).lstrip(': ')
  9. api_provider = re.search(r'<<<api_provider>>>(.*?)\n', code_section, re.IGNORECASE).group(1).lstrip(': ')
  10. if "<<<explanation>>>" in code_section:
  11. explanation_pattern = r'<<<explanation>>>(.*?)(?:\n<<<code>>>|```|$)'
  12. explanation = re.search(explanation_pattern, code_section, re.DOTALL).group(1).lstrip(': ')
  13. else:
  14. explanation = None
  15. # 考虑两种情况提取代码片段
  16. code_pattern = r'(?:<<<code>>>|```) (.*)' # 匹配 <<<code>>> 或 ```
  17. code_snippet_match = re.search(code_pattern, code_section, re.DOTALL)
  18. code_snippet = code_snippet_match.group(1).lstrip(': ') if code_snippet_match else None
  19. return instruction, domain, api_call, api_provider, explanation, code_snippet
  1. def encode_train_sample(data, api_name):
  2. """将多个提示指令编码为单个字符串。"""
  3. code_section = data['code']
  4. if "<<<api_call>>>" in code_section:
  5. instruction, domain, api_call, api_provider, explanation, code = parse_instructions_and_outputs(code_section)
  6. prompts = []
  7. #prompt = instruction + "\nWrite a python program in 1 to 2 lines to call API in " + api_name + ".\n\nThe answer should follow the format: <<<domain>>> $DOMAIN, <<<api_call>>>: $API_CALL, <<<api_provider>>>: $API_PROVIDER, <<<explanation>>>: $EXPLANATION, <<<code>>>: $CODE}. Here are the requirements:\n" + domains + "\n2. The $API_CALL should have only 1 line of code that calls api.\n3. The $API_PROVIDER should be the programming framework used.\n4. $EXPLANATION should be a step-by-step explanation.\n5. The $CODE is the python code.\n6. Do not repeat the format in your answer."
  8. prompts.append({"role": "system", "content": "你是一个有厉害的API开发人员,可以根据需求编写API。"})
  9. prompts.append({"role": "user", "content": instruction})
  10. prompts.append({"role": "assistant", "content": f"<<<domain>>> {domain},\
  11. <<<api_call>>>: {api_call}, <<<api_provider>>>: {api_provider}, <<<explanation>>>: {explanation}, <<<code>>>: {code}"})
  12. return prompts
  13. else:
  14. return None

使用正确的格式格式化训练样本以反映 Gorilla 论文

  1. encoded_data = []
  2. none_count = 0
  3. for d in data:
  4. res = encode_train_sample(d, "huggingface")
  5. if res is not None:
  6. encoded_data.append({"messages":res})
  7. else:
  8. none_count += 1
  9. print(f"{none_count} samples out of {len(data)} ignored")

打印将传递给 OpenAI 进行微调的样本

encoded_data[3]

输出结果:

  1. {'messages': [{'role': 'system',
  2. 'content': 'You are a helpful API writer who can write APIs based on requirements.'},
  3. {'role': 'user',
  4. 'content': 'I run an online art store and I want to classify the art pieces uploaded by the users into different categories like abstract, landscape, portrait etc.'},
  5. {'role': 'assistant',
  6. 'content': "<<<domain>>> Computer Vision Image Classification,<<<api_call>>>: ViTModel.from_pretrained('facebook/dino-vits8'), <<<api_provider>>>: Hugging Face Transformers, <<<explanation>>>: 1. We first import the necessary classes from the transformers and PIL packages. This includes ViTModel for the image classification model and Image for processing image data.\n2. We then use the from_pretrained method of the ViTModel class to load the pre-trained model 'facebook/dino-vits8'. This model has been trained using the DINO method which is particularly useful for getting good features for image classification tasks.\n3. We load the image data from an uploaded image file by the user.\n4. This model can then be used to classify the image into different art categories like 'abstract', 'landscape', 'portrait' etc., <<<code>>>: None"}]}

保存训练数据

  1. encoded_file_path = 'encoded_data.jsonl'
  2. with open(encoded_file_path, 'w') as file:
  3. for item in encoded_data:
  4. line = json.dumps(item)
  5. file.write(line + '\n')

6.3、OpenAI数据验证脚本

  1. # 我们从导入所需的包开始
  2. import json
  3. import os
  4. import tiktoken
  5. import numpy as np
  6. from collections import defaultdict
  7. # 接下来,我们指定数据通路并打开JSONL文件
  8. data_path = encoded_file_path
  9. # 加载数据集
  10. with open(data_path) as f:
  11. dataset = [json.loads(line) for line in f]
  12. # 我们可以通过检查示例数量和第一项来快速检查数据
  13. # 初始数据集统计信息
  14. print("Num examples:", len(dataset))
  15. print("First example:")
  16. for message in dataset[0]["messages"]:
  17. print(message)
  18. # 现在我们对数据有了了解,我们需要遍历所有不同的示例并检查以确保格式正确并与Chat完成消息结构匹配
  19. # 格式错误检查
  20. format_errors = defaultdict(int)
  21. for ex in dataset:
  22. if not isinstance(ex, dict):
  23. format_errors["data_type"] += 1
  24. continue
  25. messages = ex.get("messages", None)
  26. if not messages:
  27. format_errors["missing_messages_list"] += 1
  28. continue
  29. for message in messages:
  30. if "role" not in message or "content" not in message:
  31. format_errors["message_missing_key"] += 1
  32. if any(k not in ("role", "content", "name") for k in message):
  33. format_errors["message_unrecognized_key"] += 1
  34. if message.get("role", None) not in ("system", "user", "assistant"):
  35. format_errors["unrecognized_role"] += 1
  36. content = message.get("content", None)
  37. if not content or not isinstance(content, str):
  38. format_errors["missing_content"] += 1
  39. if not any(message.get("role", None) == "assistant" for message in messages):
  40. format_errors["example_missing_assistant_message"] += 1
  41. if format_errors:
  42. print("Found errors:")
  43. for k, v in format_errors.items():
  44. print(f"{k}: {v}")
  45. else:
  46. print("No errors found")
  47. # 除了消息的结构之外,我们还需要确保长度不超过4096令牌限制。
  48. # Token 计数功能
  49. encoding = tiktoken.get_encoding("cl100k_base")
  50. def num_tokens_from_messages(messages, tokens_per_message=3, tokens_per_name=1):
  51. num_tokens = 0
  52. for message in messages:
  53. num_tokens += tokens_per_message
  54. for key, value in message.items():
  55. num_tokens += len(encoding.encode(value))
  56. if key == "name":
  57. num_tokens += tokens_per_name
  58. num_tokens += 3
  59. return num_tokens
  60. def num_assistant_tokens_from_messages(messages):
  61. num_tokens = 0
  62. for message in messages:
  63. if message["role"] == "assistant":
  64. num_tokens += len(encoding.encode(message["content"]))
  65. return num_tokens
  66. def print_distribution(values, name):
  67. print(f"\n#### Distribution of {name}:")
  68. print(f"min / max: {min(values)}, {max(values)}")
  69. print(f"mean / median: {np.mean(values)}, {np.median(values)}")
  70. print(f"p5 / p95: {np.quantile(values, 0.1)}, {np.quantile(values, 0.9)}")
  71. # 最后,在继续创建微调作业之前,我们可以查看不同格式化操作的结果:
  72. # 警告和token计数
  73. n_missing_system = 0
  74. n_missing_user = 0
  75. n_messages = []
  76. convo_lens = []
  77. assistant_message_lens = []
  78. for ex in dataset:
  79. messages = ex["messages"]
  80. if not any(message["role"] == "system" for message in messages):
  81. n_missing_system += 1
  82. if not any(message["role"] == "user" for message in messages):
  83. n_missing_user += 1
  84. n_messages.append(len(messages))
  85. convo_lens.append(num_tokens_from_messages(messages))
  86. assistant_message_lens.append(num_assistant_tokens_from_messages(messages))
  87. print("缺少系统消息的示例数:", n_missing_system)
  88. print("缺少用户消息的数字示例:", n_missing_user)
  89. print_distribution(n_messages, "num_messages_per_example")
  90. print_distribution(convo_lens, "num_total_tokens_per_example")
  91. print_distribution(assistant_message_lens, "num_assistant_tokens_per_example")
  92. n_too_long = sum(l > 4096 for l in convo_lens)
  93. print(f"\n{n_too_long} 示例可能超过4096令牌限制,它们将在微调期间被截断")
  94. # 定价和违约n_epochs估计
  95. MAX_TOKENS_PER_EXAMPLE = 4096
  96. MIN_TARGET_EXAMPLES = 100
  97. MAX_TARGET_EXAMPLES = 25000
  98. TARGET_EPOCHS = 3
  99. MIN_EPOCHS = 1
  100. MAX_EPOCHS = 25
  101. n_epochs = TARGET_EPOCHS
  102. n_train_examples = len(dataset)
  103. if n_train_examples * TARGET_EPOCHS < MIN_TARGET_EXAMPLES:
  104. n_epochs = min(MAX_EPOCHS, MIN_TARGET_EXAMPLES // n_train_examples)
  105. elif n_train_examples * TARGET_EPOCHS > MAX_TARGET_EXAMPLES:
  106. n_epochs = max(MIN_EPOCHS, MAX_TARGET_EXAMPLES // n_train_examples)
  107. n_billing_tokens_in_dataset = sum(min(MAX_TOKENS_PER_EXAMPLE, length) for length in convo_lens)
  108. print(f"数据集有~{n_billing_tokens_in_dataset}个令牌,在训练期间将收取费用")
  109. print(f"默认情况下,您将在此数据集上训练{n_epochs}个纪元")
  110. print(f"默认情况下,您将收取~{n_epochs*n_billing_tokens_in_dataset}代币的费用")
  111. print("请参阅定价页面以估算总成本")

6.4、开始微调GPT-3.5

创建 OpenAI 训练文件

  1. openai.File.create(
  2. file=open(encoded_file_path, "rb"),
  3. purpose='fine-tune'
  4. )

创建微调任务

  1. openai.api_key = openai_api_key
  2. openai.FineTuningJob.create(
  3. training_file="file-OrxAP7HcvoSUmu9MtAbWo5s4",
  4. model="gpt-3.5-turbo"
  5. )
  1. # 列出 10 个微调任务
  2. openai.FineTuningJob.list(limit=10)
  3. # 查询微调的状态
  4. state = openai.FineTuningJob.retrieve("ftjob-qhg4yswil15TCqD4SNHn0V1D")
  5. state["status"], state["trained_tokens"], state["finished_at"]
  6. # 列出微调作业中最多 10 个事件
  7. openai.FineTuningJob.list_events(id="ftjob-qhg4yswil15TCqD4SNHn0V1D", limit=10)

6.5、使用微调后的模型

  1. openai.api_key = openai_api_key
  2. completion = openai.ChatCompletion.create(
  3. model="ft:gpt-3.5-turbo:my-org:custom_suffix:id",
  4. messages=[
  5. {"role": "system", "content": "You are a helpful assistant."},
  6. {"role": "user", "content": "How can i load a NER model?"}
  7. ]
  8. )
  9. print(completion.choices[0].message)
  10. print(completion.choices[0].message["content"])

输出结果:

  1. ('To load a Named Entity Recognition (NER) model in Python, you can use the '
  2. "Hugging Face Transformers library. Here's a step-by-step guide to loading "
  3. 'and using a NER model:\n'
  4. '\n'
  5. '1. Install the required Hugging Face Transformers library using "pip install '
  6. 'transformers".\n'
  7. '2. Import the AutoModelForTokenClassification class from the transformers '
  8. 'library.\n'
  9. '3. Import the necessary tokenizer as well, which is AutoTokenizer in this '
  10. 'case.\n'
  11. '4. Use the from_pretrained method to load the pre-trained model with its '
  12. 'respective model name or identifier.\n'
  13. '5. Then, use the load_tokenizer method to load the tokenizer.\n'
  14. '6. Encode your text using the loaded tokenizer, specifying the '
  15. "'return_tensors' parameter as 'pt'.\n"
  16. '7. Pass the input tensor to the model and it will return the predictions, '
  17. 'describing the Named Entities in the text.\n'
  18. '\n'
  19. 'Please keep in mind that you should download the model first, replace '
  20. "'YOUR_MODEL_NAME' with an appropriate model identifier, and make sure to "
  21. 'execute this code on a suitable device (e.g., CPU or GPU).\n'
  22. '\n'
  23. 'Here is how the code looks:\n'
  24. '```python\n'
  25. 'from transformers import AutoModelForTokenClassification, AutoTokenizer\n'
  26. 'import torch\n'
  27. '\n'
  28. "model = AutoModelForTokenClassification.from_pretrained('YOUR_MODEL_NAME')\n"
  29. "tokenizer = AutoTokenizer.from_pretrained('YOUR_MODEL_NAME')\n"
  30. '\n'
  31. '# Encode your text using the loaded tokenizer\n'
  32. "inputs = tokenizer(text, return_tensors='pt')\n"
  33. '\n'
  34. '# Pass the input tensor to the model and obtain NER predictions\n'
  35. 'predictions = model(**inputs)\n'
  36. '```\n'
  37. '\n'
  38. "Remember to replace 'YOUR_MODEL_NAME' with an appropriate BERT NER-trained "
  39. "model such as 'dslim/bert-base-NER'.")

七、总结

Gorilla LLM 是一个突破性的LLM,可以生成准确的 API 调用并适应文档的实时变化。该模型为未来的LLM在与工具和系统交互方面变得更加可靠和多功能铺平了道路。

Gorilla LLM 是一款面向开发人员的强大新工具。它可以节省开发人员的时间和精力,并且可以帮助他们编写更可靠的代码。如果您是一名开发人员,建议你可以了解一下 Gorilla LLM。

LLM未来的进步可以集中在进一步减少幻觉错误、提高对不同 API 的适应性以及扩展其处理复杂任务的能力。潜在的应用包括充当计算基础设施的主要接口、自动化度假预订等流程以及促进各种 Web API 之间的无缝通信。

八、References

  • Gorilla Website

https://shishirpatil.github.io/gorilla/

  • Gorilla GitHub

https://github.com/ShishirPatil/gorilla

  • Gorilla Pager

https://arxiv.org/abs/2305.15334

如果你对这篇文章感兴趣,而且你想要了解更多关于AI领域的实战技巧,可以关注「技术狂潮AI」公众号。在这里,你可以看到最新最热的AIGC领域的干货文章和案例实战教程

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小蓝xlanll/article/detail/704249
推荐阅读
相关标签
  

闽ICP备14008679号