赞
踩
LLMs之unsloth:unsloth的简介、安装和使用方法、案例应用之详细攻略
目录
对于 Pytorch 2.1.0:您可以通过 Pip 更新 Pytorch(互换 cu121 / cu118)。
对于 Pytorch 2.1.1:对较新的 RTX 30xx GPU 或更高版本使用“ampere”路径。
对于 Pytorch 2.2.0:对较新的 RTX 30xx GPU 或更高版本使用“ampere”路径。
要解决安装问题,请尝试以下操作(全部必须成功)。 Xformers 应该大部分都可用
unsloth微调Llama 3, Mistral和Gemma速度快2-5倍,内存减少80% !unsloth是一个开源项目,它可以比HuggingFace快2-5倍地微调Llama 3、Mistral和Gemma语言模型,同时内存消耗减少80%。
官网地址:GitHub - unslothai/unsloth: Finetune Llama 3, Mistral & Gemma LLMs 2-5x faster with 80% less memory
所有笔记本都是初学者友好的,可以加入自己的数据集,点击"Run All",即可获得速度更快的微调模型。
支持Llama 3、Mistral、Gemma等几个知名LLM,可以实现更快和更节省内存的微调。
所有的核心代码都用OpenAI开发的Triton编写,确保NumPy一致性。
微调预训练模型
支持HuggingFace的Trainer、SFTTrainer等训练循环
支持 continuing pretraining和文本完成功能
支持DPO直接偏好优化算法
所有笔记本都是初学者友好的!添加你的数据集,点击“全部运行”,你会得到一个2倍快的微调模型,可以导出到GGUF, vLLM或上传到Hugging Face。
Unsloth supports | Free Notebooks | Performance | Memory use |
---|---|---|---|
Llama 3 (8B) | ▶️ Start for free | 2x faster | 60% less |
Mistral (7B) | ▶️ Start for free | 2.2x faster | 73% less |
Gemma (7B) | ▶️ Start for free | 2.4x faster | 71% less |
ORPO | ▶️ Start for free | 1.9x faster | 43% less |
DPO Zephyr | ▶️ Start for free | 1.9x faster | 43% less |
Phi-3 (3.8B) | ▶️ Start for free | 2x faster | 50% less |
TinyLlama | ▶️ Start for free | 3.9x faster | 74% less |
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。