赞
踩
如希望使用Qwen-chat进行推理,所需要写的只是如下所示的数行代码。请确保你使用的是最新代码,并指定正确的模型名称和路径,如Qwen/Qwen-7B-Chat
和Qwen/Qwen-14B-Chat
这里给出了一段代码
- from transformers import AutoModelForCausalLM, AutoTokenizer
- from transformers.generation import GenerationConfig
-
- # 可选的模型包括: "Qwen/Qwen-7B-Chat", "Qwen/Qwen-14B-Chat"
- tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen-7B-Chat", trust_remote_code=True)
-
- # 打开bf16精度,A100、H100、RTX3060、RTX3070等显卡建议启用以节省显存
- # model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen-7B-Chat", device_map="auto", trust_remote_code=True, bf16=True).eval()
- # 打开fp16精度,V100、P100、T4等显卡建议启用以节省显存
- # model = AutoModelForCausalLM.from_pret
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。