当前位置:   article > 正文

本地部署Llama3中文版并弱智吧测试

llama3中文版 本地部署

▼最近直播超级多,预约保你有收获

c86735d8740c14818a651a17c2d5af22.png

 1

中文微调版 Llama 3 

随着 Meta 发布 Llama 3 新一代最强劲开源大模型,在 Hugging Face 开源社区涌现了不少中文微调版 Llama 3,如下图所示:

fbde86dccc44f766f315cfb884e349f6.png

同时,也整理下目前的中文版 Llama 3 大模型列表,如下图所示:

  1. 联通微调版:https://www.modelscope.cn/models/UnicomAI/Unichat-llama3-Chinese/summary
  2. Openbuddy微调版:https://www.modelscope.cn/models/OpenBuddy/openbuddy-llama3-8b-v21.1-8k/summary
  3. zhichen微调版:https://github.com/seanzhang-zhichen/llama3-chinese
  4. Rookie微调版:https://github.com/Rookie1019/Llama-3-8B-Instruct-Chinese
  5. shareAI-V1:https://opencsg.com/models/shareAI/llama3-Chinese-chat-8b
  6. shareAI-V2:https://modelscope.cn/models/baicai003/Llama3-Chinese_v2/summary

 2

Ollama 部署中文微调版 Llama 3 

经过对比和测试,我们选择 Hugging Face社区的 zhouzr/Llama3-8B-Chinese-Chat-GGU F模型,推荐下载使用 q4_k_m 版本:

5cd6df82a3e47918cff3318b28a1cd94.png

第一步、将下载的 GGUF 大模型上传到指定位置,编写 Modelfile。

  1. FROM ./Llama3-8B-Chinese-Chat.q4_k_m.GGUF
  2. TEMPLATE """{{ if .System }}<|start_header_id|>system<|end_header_id|>
  3. {{ .System }}<|eot_id|>{{ end }}{{ if .Prompt }}<|start_header_id|>user<|end_header_id|>
  4. {{ .Prompt }}<|eot_id|>{{ end }}<|start_header_id|>assistant<|end_header_id|>
  5. {{ .Response }}<|eot_id|>"""
  6. PARAMETER stop "<|start_header_id|>"
  7. PARAMETER stop "<|end_header_id|>"
  8. PARAMETER stop "<|eot_id|>"
  9. PARAMETER stop "<|reserved_special_token"

第二步、执行 ollama create llama3-Chinese:8B -f Modelfile 创建大模型。

  1. (base) [root@localhost my_model]# ollama create llama3-Chinese:8B -f Modelfile
  2. transferring model data
  3. creating model layer
  4. creating template layer
  5. creating parameters layer
  6. creating config layer
  7. using already created layer sha256:74db82a06a038230371e62740a9b430140e4df3a02c5ddcbe97c9bee76d6455e
  8. writing layer sha256:8ab4849b038cf0abc5b1c9b8ee1443dca6b93a045c2272180d985126eb40bf6f
  9. writing layer sha256:c0aac7c7f00d8a81a8ef397cd78664957fbe0e09f87b08bc7afa8d627a8da87f
  10. writing layer sha256:109fb4827ddd6f21dd04a405dec5e1c9e39cf139e89b98536875a782938c02f5
  11. writing manifest
  12. success

第三步、执行 ollama list 查看,已成功运行。

  1. (base) [root@localhost my_model]# ollama list
  2. NAME                            ID              SIZE    MODIFIED
  3. llama3-Chinese:8B               e45ad8ada59e    4.9 GB  33 seconds ago
  4. qwen:14b-chat-v1.5-q5_K_M       ba0e61d66b27    10 GB   6 weeks ago

 3

测试中文微调版 Llama 3 

第一、弱智吧问题测试

99d4c733f652b83acdc265f3519b6946.png

第二、代码能力测试

1b02fd7a03d1e0a3cfef92a811e46fcf.png

第三、数学能力测试

e15dc1d9a1d567c94095bf88eeac0e55.png

可以看到,Llama 3 微调版的确强大,推荐大家使用起来!

参考:https://mp.weixin.qq.com/s/v6K61fTzaMLS1-wKCHoNWw

为了帮助同学们彻底掌握大模型 Agent 智能体、知识库、向量数据库、 RAG、知识图谱的应用开发、部署、生产化,今天我会开4场直播和同学们深度剖析,请同学们点击以下预约按钮免费预约

 4

AI大模型开发技能直播课程

大模型的技术体系非常复杂,即使有了知识图谱和学习路线后,快速掌握并不容易,我们打造了大模型应用技术的系列直播课程,包括:通用大模型技术架构原理、大模型 Agent 应用开发、企业私有大模型开发、向量数据库、大模型应用治理、大模型应用行业落地案例等6项核心技能,帮助同学们快速掌握 AI 大模型的技能。

 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小小林熬夜学编程/article/detail/620538
推荐阅读
相关标签