赞
踩
在这篇文章中,我们将了解如何使用 Llama Index 微调 Llama3。更棒的是,你只需几个简单的步骤和几行代码就可以实现这一点。
在低成本云 GPU 上构建和扩展 AI 模型。
目录
本文将探索于 2024 年 3 月 21 日发布的 Llama Factory,并了解如何微调 Llama 3。为了我们的任务,我们将使用 NVIDIA A4000 GPU,这被认为是最强大的单槽 GPU 之一,能够无缝集成到各种工作站设置中。
利用 NVIDIA Ampere 架构,RTX A4000 集成了 48 个第二代 RT 核心,192 个第三代 Tensor 核心和 6144 个 CUDA 核心及配备有 ECC 的 16GB 图形内存;确保创新项目的计算精度和可靠性。
直到最近,微调大语言模型还是一个复杂的任务,主要由机器学习和 AI 专家处理。然而,随着人工智能领域的不断发展,这一观念正在迅速改变。新工具如 Llama Factory 正在出现,使得微调过程更加便捷和高效。此外,现在还可以使用 DPO、ORPO、PPO 和 SFT 等技术进行微调和模型优化。此外,你现在可以高效地训练和微调 Llama、Mistral、Falcon 等模型。
微调模型涉及调整预训练或基础模型的参数,使其能够用于特定任务或数据集,从而提升其性能和准确性。这个过程包括为模型提供新的数据,并修改其权重、偏差和某些参数以最小化损失和成本。通过这样做,这个新模型可以在任何新任务或数据集上表现良好,而无需从头开始,从而节省时间和资源。
通常,当一个新的大型语言模型(LLM)创建时,它会在一个大型文本数据语料库上进行训练,其中可能包含潜在有害或不良内容。在预训练或初始训练阶段之后,模型会被微调加入安全措施,确保其避免生成有害或不良的响应。然而,这种方法并非完美无缺。尽管如此,微调的概念解决了适应特定需求的要求。
引入 Llama Factory,这是一款能够高效且经济地微调 100 多个模型的工具。Llama Factory 简化了模型微调的过程,使其变得易于访问和用户友好。它还提供了 Hiyouga 的 Hugging Face Space,可以用来微调模型。
LLama Board(Huggingface Space)
这个空间还支持 Lora 和 GaLore 配置以减少 GPU 使用。通过一个简单的滑动条,用户可以轻松更改诸如 drop-out、epoch、批量大小等参数。有多种数据集选项可供选择来微调你的模型。如本文所述,Llama Factory 支持众多模型,包括不同版本的 Llama、Mistral 和 Falcon。它还支持先进的算法如 galore、badm 和 Lora,提供了各种功能如闪存注意力、位置编码和缩放。
此外,你可以集成监控工具如 TensorBoard、VanDB 和 MLflow。为了更快的推理,你可以利用 Gradio 和 CLI。总之,Llama Factory 提供了一套多样化的选项来提升模型性能并简化微调过程。
LLAMABOARD 是一个用户友好的工具,帮助人们无需编程知识就能调整和改进语言模型(LLM)的性能。它像一个仪表板一样,可以轻松自定义语言模型的学习和信息处理方式。
以下是一些关键特性:
让我们登录平台,选择你喜欢的 GPU,并启动笔记本。你也可以点击文章中的链接来帮助你启动笔记本。
!git clone https://github.com/hiyouga/LLaMA-Factory.git %cd LLaMA-Factory %ls
# 安装所需软件包 !pip install "unsloth[colab-new] @ git+https://github.com/unslothai/unsloth.git" !pip install --no-deps xformers==0.0.25 !pip install .[bitsandbytes] !pip install 'urllib3<2'
!nvidia-smi
import torch try: assert torch.cuda.is_available() is True except AssertionError: print("Your GPU is not setup!")
import json %cd /notebooks/LLaMA-Factory MODEL_NAME = "Llama-3" with open("/notebooks/LLaMA-Factory/data/identity.json", "r", encoding="utf-8") as f: dataset = json.load(f) for sample in dataset: sample["output"] = sample["output"].replace("MODEL_NAME", MODEL_NAME).replace("AUTHOR", "LLaMA Factory") with open("/notebooks/LLaMA-Factory/data/identity.json", "w", encoding="utf-8") as f: json.dump(dataset, f, indent=2, ensure_ascii=False)
# 生成 web 应用链接 %cd /notebooks/LLaMA-Factory !GRADIO_SHARE=1 llamafactory-cli webui
你可以点击生成的链接并按照提示操作,或者使用你自己的参数规格。
• 你可以指定适配器路径。
• 可用的适配器包括 LoRa、QLoRa、freeze 或 full。
• 如果需要,你可以刷新适配器列表。
• 你可以通过监督微调进行模型训练。
• 或者,你可以选择使用 DPU(数据处理单元)或 PPU(并行处理单元)(如果适用)。
• 已选择的数据集用于监督微调(SFT)。
• 你也可以选择自己的数据集。
这将开始训练。
我们也将使用 CLI 命令开始训练和微调。你可以使用下面的代码来指定参数。
args = dict( stage="sft", # 指定训练阶段。这里设置为“sft”以进行监督微调 do_train=True, model_name_or_path="unsloth/llama-3-8b-Instruct-bnb-4bit", # 使用 bnb-4bit-quantized Llama-3-8B-Instruct 模型 dataset="identity,alpaca_gpt4_en", # 使用 alpaca 和 identity 数据集 template="llama3", # 使用 llama3 模板 finetuning_type="lora", # 使用 LoRA 适配器,以节省内存 lora_target="all", # 将 LoRA 适配器附加到所有线性层 output_dir="llama3_lora", # 保存 LoRA 适配器的路径 per_device_train_batch_size=2, # 指定批量大小 gradient_accumulation_steps=4, # 梯度累积步数 lr_scheduler_type="cosine", # 使用余弦学习率调度器 logging_steps=10, # 每 10 步记录一次 warmup_ratio=0.1, # 使用预热调度器 save_steps=1000, # 每 1000 步保存一次检查点 learning_rate=5e-5, # 学习率 num_train_epochs=3.0, # 训练轮数 max_samples=500, # 每个数据集使用 500 个示例 max_grad_norm=1.0, # 最大梯度范数剪裁值 quantization_bit=4, # 使用 4 位 QLoRA 量化 loraplus_lr_ratio=16.0, # 使用 lambda=16.0 的 LoRA+ use_unsloth=True, # 使用 UnslothAI 的 LoRA 优化以加速 2 倍训练速度 fp16=True, # 使用 float16 混合精度训练 ) json.dump(args, open("train_llama3.json", "w", encoding="utf-8"), indent=2)
接下来,打开终端并运行以下命令
!llamafactory-cli train train_llama3.json
这将启动训练过程。
args = dict( model_name_or_path="unsloth/llama-3-8b-Instruct-bnb-4bit", # 指定用于推理的预训练模型的名称或路径。在本例中,设置为 "unsloth/llama-3-8b-Instruct-bnb-4bit"。 #adapter_name_or_path="llama3_lora", # 加载保存的 LoRA 适配器 finetuning_type="lora", # 指定微调类型。这里设置为 "lora" 以使用 LoRA 适配器。 template="llama3", # 指定用于推理的对话模板。这次设置为 "llama3"。 quantization_bit=4, # 指定量化位数。这次设置为 4。 use_unsloth=True, # 使用 UnslothAI 的 LoRA 优化,实现 2 倍生成速度 ) json.dump(args, open("infer_llama3.json", "w", encoding="utf-8"), indent=2)
在这里,我们定义了带有已保存适配器的模型,选择了聊天模板,并指定了用户-助手的交互过程。 接下来,在终端中运行以下代码,
!llamafactory-cli chat infer_llama3.json
我们建议用户尝试 Llama-Factory,进行各种模型实验和参数调整。
有效的微调已经成为大语言模型(LLMs)适应特定任务的必要条件之一。然而,这需要一定的努力,有时还相当具有挑战性。LLama-Factory 的引入提供了一个综合框架,该框架整合了先进的高效训练技术,用户无需编码即可轻松自定义超过 100 种 LLMs 的微调。 许多人现在对大语言模型(LLMs)变得更好奇,他们会倾向于使用 LLama-Factory 来调整自己的模型。这有助于开源社区的成长和活跃。LLama-Factory 正逐渐出名,甚至在 Awesome Transformers3 中被强调为高效微调 LLMs 的领先工具。 我们希望这篇文章能鼓励更多开发者使用此框架构建对社会有益的 LLMs。请记住,在使用 LLama-Factory 微调 LLMs 时,遵守模型许可证的规定非常重要,以防止潜在的滥用。 到这里,我们结束了这篇文章,我们看到了现在微调任何模型是多么容易,可以在几分钟内完成。我们还可以使用 hugging face CLI 将此模型推送到 hugging face hub。 为您的机器学习工作流程增添速度和简便性,今天就开始吧
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。