赞
踩
LLMs之LLaMA:LLaMA的简介、安装和使用方法、案例应用之详细攻略
导读:2023年2月25日,Meta公开发布LLaMA,并提出了一系列开源的基础NLP模型——LLaMA模型,重点解决了目前许多模型依赖于专有数据集等资源的问题。
>> 背景痛点:许多现有的模型如GPT-3、PaLM等依赖于不可公开获取的专有数据集进行训练,不利于开源和研究。
>> 解决方案:本研究通过仅使用公开数据集,训练出不同规模的LLaMA模型,其中LLaMA-13B的性能超过了175B的参数的GPT-3,LLaMA-65B的性能接近70B的参数的Chinchilla模型。
>> 核心特点:LLaMA模型不同规模,最小7B参数可以在单个GPU上运行,最大65B参数性能指标与现有模型持平。
>> 优势:1提出了开放可复现的 baselline 模型 2训练覆盖公开资源,利于开源与研究 3不同规模满足不同应用场景需求 4性能指标与SOTA持平或优越
>> 结果总结:论文通过开放与复现性强的模型及训练方式,解决了依赖专有资源的问题,同时该系列模型性能也表现出色,为应用和未来模型提供了优质基线。
目录
LLMs之LLaMA:《LLaMA: Open and Efficient Foundation Language Models》翻译与解读
T1、基于原始LLaMA+国外微调或精调的版本:比如Alpaca、Vicuna
LLMs之Alpaca:《Alpaca: A Strong, Replicable Instruction-Following Model》翻译与解读
LLMs之Vicuna:《Vicuna: An Open-Source Chatbot Impressing GPT-4 with 90%* ChatGPT Quality》翻译与解读
T2、LLaMA的汉化版本——即Chinese-LLaMA-Alpaca+词表扩充的预训练2阶段+指令微调
LLMs:《Efficient And Effective Text Encoding For Chinese Llama And Alpaca—6月15日版本》翻译与解读
LLMs之LLaMA-2:LLaMA-2的简介(技术细节)、安装、使用方法(开源-免费用于研究和商业用途)之详细攻略
预训练数据。用于预训练的数据混合,对于每个子集,我们列出了采样比例、在1.4T标记上训练时在子集上执行的时代数量以及磁盘大小。在1T标记上进行的预训练运行具有相同的采样比例。
7B、13B、33B和65B模型在训练标记上的训练损失。LLaMA-33B和LLaMA-65B在1.4T标记上进行训练。较小的模型在1.0T标记上进行训练。所有模型的批次大小均为4M标记
LLMs:基于单个4GB GPU上(Windows系统)运行LLM上——pyllama模型(基于fjuncongmoo的GitHub)进行模型部署且实现模型推理全流程步骤的图文教程(非常详细)
LLMs:Chinese-LLaMA-Alpaca的简介(扩充中文词表+增量预训练+指令精调)、安装、案例实战应用之详细攻略
LLMs之llama.cpp:llama.cpp的简介、安装、使用方法之详细攻略
LLMs之LLaMA:《LLaMA: Open and Efficient Foundation Language Models》翻译与解读-CSDN博客
LLMs之Alpaca:《Alpaca: A Strong, Replicable Instruction-Following Model》翻译与解读_一个处女座的程序猿的博客-CSDN博客
LLMs:《如何使用Ray + DeepSpeed + HuggingFace简单、快速、经济有效地微调和服务LLM》解读_deepspeed ray-CSDN博客
https://yunyaniu.blog.csdn.net/article/details/131319010
https://yunyaniu.blog.csdn.net/article/details/122274996
LLMs之LLaMA-2:LLaMA-2的简介(技术细节)、安装、使用方法(开源-免费用于研究和商业用途)之详细攻略_llama2-CSDN博客
2023年2月25日,Meta公开发布LLaMA(Large Language Model Meta AI),这是一款先进的基础性大型语言模型,旨在帮助研究人员推动人工智能的这一子领域的工作。像LLaMA这样的更小、更高性能的模型使研究社区中那些无法访问大量基础设施的人能够研究这些模型,进一步使这一重要而快速变化的领域的访问更加民主化。
官网:GitHub - meta-llama/llama: Inference code for Llama models
注意,官网的版本已经更新到了LLaMA 2版本
GitHub(加载LLaMA模型并进行推理):GitHub - facebookresearch/llama at llama_v1
GitHub(基于Python部署):GitHub - meta-llama/llama: Inference code for Llama models
GitHub(基于Python和C/C++部署):
部署文章
GitHub - ggerganov/llama.cpp: Port of Facebook's LLaMA model in C/C++
LLMs之Koala:《Koala: A Dialogue Model for Academic Research一款针对学术研究的对话模型》翻译与解读-CSDN博客
LLMs:Chinese-LLaMA-Alpaca的简介(扩充中文词表+增量预训练+指令精调)、安装、案例实战应用之详细攻略-CSDN博客
https://yunyaniu.blog.csdn.net/article/details/131319010
https://yunyaniu.blog.csdn.net/article/details/130397774
持续更新中……
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。