>> hiHello!更多示例,请参考examples目录。有关使用Modelfile的更多信息,请参考Modelfile文档。_ollama 导入gguf windows">
赞
踩
ollama
测试是否安装,正常安装会显示ollama的指令说明。ollama run [模型名]
类似docker会自动下载并运行。ollama run llama2-chinese
这个是网友中文微调过的OLLAMA_MODELS
设定具体模型目录决定默认模型;默认下载模型路径C:\Users<username>.ollama\models
修改win的系统环境变量,添加OLLAMA_MODELS
值为你自定义的目录
默认本机服务地址http://localhost:11434
可以在安装 Ollama 的系统中直接调用。如果要在网络中其它终端调用,修改API 的侦听地址和端口,修改环境变量要重启ollama。
C:\Windows\system32\rundll32.exe sysdm.cpl, EditEnvironmentVariables
OLLAMA_HOST
,值0.0.0.0:8080
;端口可自定义,如果只填:8080
会侦听所有的IPV4\V6的8080端口OLLAMA_ORIGINS
变量,值为*
支持在 Modelfile 中导入 GGUF 模型
GGUF下载网站
FROM e:\down\vicuna-33b.Q4_0.gguf
ollama create example -f d:\zdy.Modelfile
transferring model data
代表正在导入。导入成功后提示如下using existing layer sha256:aeec5c76f5d914ffc5b93cf7197b914be97c1580592a6eb368dc36c8c0c12f28
creating new layer sha256:548da157cbc544bbccc16f240679d2471d4386214645e86dc004a9be98e1f708
writing manifest
success
ollama run example
FROM llama2
# 设置温度为 1 [值越高越有创造性,值越低越连贯]
PARAMETER temperature 1
# 设置系统消息
SYSTEM """
You are Mario from Super Mario Bros. Answer as Mario, the assistant, only.
"""
ollama create mario -f ./Modelfile
ollama run mario
>>> hi
Hello! It's your friend Mario.
更多示例,请参考examples目录。有关使用 Modelfile 的更多信息,请参考Modelfile文档
ollama -v
ollama list
ollama rm [modelname]
详细使用:https://blog.csdn.net/wjjc1017/article/details/137734467
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。