当前位置:   article > 正文

windows10搭建llama大模型

lla大语言模型搭建

背景

    随着人工时代的到来及日渐成熟,大模型已慢慢普及,可以为开发与生活提供一定的帮助及提升工作及生产效率。所以在新的时代对于开发者来说需要主动拥抱变化,主动成长。        

LLAMA介绍

    llama全称:Large Language Model Meta AI是由meta(原facebook)开源的一个聊天对话大模型。根据参数规模,Meta提供了70亿、130亿、330亿和650亿四种不同参数规模的LLaMA模型,并使用20种语言进行了训练。与现有最佳的大型语言模型相比,LLaMA模型在性能上具有竞争力。
    官网:https://github.com/facebookresearch/llama

注意:本文是llama不是llama2,原理一致!

硬件要求

硬件名称

要求

备注

磁盘

单盘最少120g以上

模型很大的

内存
最少16g
最好32g
gpu
可以没有
当然最好有(要英伟达的)

安装软件

涉及软件版本

软件名称

版本

备注

anaconda3

conda 22.9.0

https://www.anaconda.com/

python

3.9.16

anaconda自带

peft

0.2.0

参数有效微调

sentencepiece

0.1.97

分词算法

transformers

4.29.2

下载有点久

git

2.40.1


torch

2.0.1


mingw


用window安装

protobuf

3.19.0


cuda

https://blog.csdn.net/zcs2632008/article/details/127025294

有gpu才需要安装

anaconda3安装

    安装这个anaconda建议不要在c盘,除非你的c盘够大。

请参考:https://blog.csdn.net/scorn_/article/details/106591160?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522168601805516800197073452%2522%252C%2522scm%2522%253A%252220140713.130102334..%2522%257D&request_id=168601805516800197073452&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2~all~sobaiduend~default-1-106591160-null-null.142^v88^control,239^v2^insert_chatgpt&utm_term=windows10%E5%AE%89%E8%A3%85anaconda3%E6%95%99%E7%A8%8B&spm=1018.2226.3001.4187

创建环境
  1. conda create -n llama python=3.9.16
  2. conda init
进入环境
  1. conda info -e
  2. conda activate llama

6719607697a54b66cabfd7be044ce833.png

后面验证python

0e79f8e6d7302863dbb67cccef98b45a.png

peft安装

pip install peft==0.2.0

f081293242e54cd0454f897f0757c5e3.png

transformers安装

注意:这个会很大~有点久~

conda install transformers==4.29.2

67f1e54d9afda52af1ceb3a426a67ba6.png

安装git

https://blog.csdn.net/dou3516/article/details/121740303

027f7398e455cccf5d0ca872b7f92f71.png

安装torch

pip install torch==2.0.1

e815e4d4b0a2881ac3076cd1009462fc.png

安装mingw

win+r输入powershell

a8e09eaf8cd3279e24ad7fe41a4ac57a.png

遇到禁止执行脚本问题:(如果没有异常请跳出这步)

参考

https://blog.csdn.net/weixin_43999496/article/details/115871373

6cb8a00acb77c9e9569fa95cf2139499.png

配置权限
  1. get-executionpolicy
  2. set-executionpolicy RemoteSigned
然后输入Y

69f9e6ac7ff89448552ae354129e79fd.png

安装 mingw
iex "& {$(irm get.scoop.sh)} -RunAsAdmin"

e7d0b903fb2d80b30cdc9df0b504583a.png

9285b86e895b510b26a7a776f4419ac4.png

安装好后分别运行下面两个命令(添加库):

scoop bucket add extras
scoop bucket add main

71f5b32f485250f684aeee46a54044be.png

输入命令安装mingw

scoop install mingw

57f6e83ab08c505f91e82b99e2318449.png

安装:protobuf

pip install protobuf==3.19.0

f2266a17894a34e8d98892567f3fd4e7.png

项目配置

下载代码

需要下载两个模型, 一个是原版的LLaMA模型, 一个是扩充了中文的模型, 后续会进行一个合并模型的操作

  • 原版模型下载地址(要代理):https://ipfs.io/ipfs/Qmb9y5GCkTG7ZzbBWMu2BXwMkzyCKcUjtEKPpgdZ7GEFKm/

  • 备用:nyanko7/LLaMA-7B at main

    下载不了的话,请关注【技术趋势】回复llama1获取。

创建文件夹

a41960d1bb67a0d5b6f01775c25330a6.png

git lfs install

下载中文模型

git clone https://huggingface.co/ziqingyang/chinese-alpaca-lora-7b

06e1d8df55da5eca950d99fcfcc397da.png

补充Linux图:

52926d687d4bc9161d3c44bebbcc85c2.png

下载羊驼模型(有点大)

先建一个文件夹:path_to_original_llama_root_dir

700c706f36b0565835edfd37bb033472.png

在里面再建一个7B文件夹并把tokenizer.model挪进来。

b13f6d6a5829316c85d2999dfab53637.pngc3fb899766af736b3dd85ad13b15f0f9.png

7B里面放的内容

3598dec93d5f1835b8a2f9cdca4a49bf.png

最终需要的内容如下:

4e254cd0c1322cf9662a67c16e8b06ec.png

合并模型

下载:convert_llama_weights_to_hf.py

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Cpp五条/article/detail/376834
推荐阅读
相关标签