当前位置:   article > 正文

LLaMA3各种安装方法_llama 3 网盘下载

llama 3 网盘下载

Llama 3 安装使用方法

 

git clone 安装

Llama3的git地址是 https://github.com/meta-llama/llama3 ,可以直接git克隆到本地

git clone https://github.com/meta-llama/llama3

然后在根目录运行

pip install -e .

去metallama官网登录使用下载该模型 https://llama.meta.com/llama-downloads/

  1. 1. 注册登录,您将得到一个电子邮件的网址下载模型。当你运行下载时,你需要这个网址,一旦你收到电子邮件,导航到你下载的骆驼存储库和运行下载。

  2. 2. 确保授予下载的执行权限。

  3. 3. 在此过程中,将提示您从邮件中输入URL。

  4. 4. 不要使用"复制链接"选项,而是要确保从电子邮件中手动复制链接

注意事项:

  1. 1. 替换 Meta-Llama-3-8B-Instruct/ 你的检查站目录的路径Meta-Llama-3-8B-Instruct/tokenizer.model 找到了你的标记器模型.

  2. 2. …–nproc_per_node 我们应该把它放在你所使用的模型的价值。

  3. 3. 调整max_seq_len 和max_batch_size 必要时参数.

  4. 4. 这个例子运行了 example_chat_completion.py 在这个存储库中找到,但是你可以将它更改为不同的文件。

  5. 5. 根据你本身的硬件来调整max_seq_len 和max_batch_size参数

    huggingface 平台下载

可以通过huggingface 平台下载(需要先进入huggingface平台申请,同意它的条款,)

Image

在这里插入图片描述

然后先安装huggingface工具

pip install huggingface-hub

然后指定meta-llama/Meta-Llama-3-8B-Instruct

huggingface-cli download meta-llama/Meta-Llama-3-8B-Instruct --include “original/*” --local-dir meta-llama/Meta-Llama-3-8B-Instruct

然后transformer的使用

  1. import transformers
  2. import torch
  3. model_id = "meta-llama/Meta-Llama-3-8B-Instruct"
  4. pipeline = transformers.pipeline(
  5.   "text-generation",
  6.   model="meta-llama/Meta-Llama-3-8B-Instruct",
  7.   model_kwargs={"torch_dtype": torch.bfloat16},
  8.   device="cuda"
  9. )

如果没有gpu的同学可以使用cpu device=cuda,计算性能会差一些

完整的使用方式:

基于ollama使用:

目前推荐使用ollama的8b,70b,instruct, text 其他量化模型是别的用户微调过的,建议使用原生的llama3. 执行:

ollama run llama3:instruct

或者

ollama run llama3  (ollama pull llama3:8b)

Image

在这里插入图片描述

Image

在这里插入图片描述

Image

在这里插入图片描述

测试llama3的生成速度非常快,至少是llama2的两倍,如果有强大的显存支持效率会更高。

  1. import transformers
  2. import torch
  3. model_id = "meta-llama/Meta-Llama-3-8B-Instruct"
  4. pipeline = transformers.pipeline(
  5.     "text-generation",
  6.     model=model_id,
  7.     model_kwargs={"torch_dtype": torch.bfloat16},
  8.     device_map="auto",
  9. )
  10. messages = [
  11.     {"role""system""content""You are a pirate chatbot who always responds in pirate speak!"},
  12.     {"role""user""content""Who are you?"},
  13. ]
  14. prompt = pipeline.tokenizer.apply_chat_template(
  15.         messages, 
  16.         tokenize=False
  17.         add_generation_prompt=True
  18. )
  19. terminators = [
  20.     pipeline.tokenizer.eos_token_id,
  21.     pipeline.tokenizer.convert_tokens_to_ids("<|eot_id|>")
  22. ]
  23. outputs = pipeline(
  24.     prompt,
  25.     max_new_tokens=256,
  26.     eos_token_id=terminators,
  27.     do_sample=True,
  28.     temperature=0.6,
  29.     top_p=0.9,
  30. )
  31. print(outputs[0]["generated_text"][len(prompt):])
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/煮酒与君饮/article/detail/903871
推荐阅读
相关标签
  

闽ICP备14008679号