赞
踩
提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档
提示:这里可以添加本文要记录的大概内容:
例如:随着人工智能的不断发展,机器学习这门技术也越来越重要,很多人都开启了学习机器学习,本文就介绍了机器学习的基础内容。
提示:以下是本篇文章正文内容,下面案例可供参考
简单来说 :仅需一行命令即可在本快速部署大语言模型
在官网下载适合自己系统的版本
https://ollama.com/
以Qwen0.5b为例–为了节省下载时间
ollama run qwen:0.5b
使用Qwen-72b-chat-GGUF为例
copy /b qwen1_5-72b-chat-q4_k_m.gguf.a + qwen1_5-72b-chat-q4_k_m.gguf.b qwen1_5-72b-chat-q4_k_m.gguf
编写Modelfile 参考Qwen BlogQwen Blog
Modelfile内容如下
FROM qwen1_5-72b-chat-q4_k_m.gguf
# set the temperature to 1 [higher is more creative, lower is more coherent]
PARAMETER temperature 0.7
PARAMETER top_p 0.8
PARAMETER repeat_penalty 1.05
PARAMETER top_k 20
TEMPLATE """{{ if and .First .System }}<|im_start|>system
{{ .System }}<|im_end|>
{{ end }}<|im_start|>user
{{ .Prompt }}<|im_end|>
<|im_start|>assistant
{{ .Response }}"""
# set the system message
SYSTEM """
You are a helpful assistant.
"""
ollama create qwen72b -f Modelfile
ollama run qwen72b:latest
准备工作
在发布模型之前,您需要完成以下准备工作:
# 将本地模型复制到用户空间下
ollama cp qwen72b junhowie/qwen72b
#推送模型到ollama Model library中
ollama push junhowie/qwen72b
终端日志记录
推送完成可以在自己的用户空间中查看
# 任意用户都可以使用我刚刚上传的模型,仅需下面这一行命令
ollama run junhowie/qwen72b
相关参考链接
https://qwen.readthedocs.io/zh-cn/latest/run_locally/ollama.html
https://github.com/ollama/ollama/blob/main/README.md
以上就是今天要讲的内容,本文仅仅简单介绍了ollama的使用
欢迎移步我的Github仓库,https://github.com/Jun-Howie/erniebot-openai-api
本仓库使用飞桨星河社区接入ernie-4.0联网功能,如果你需要可以Fork我的仓库,还请给个Star让我知道
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。