赞
踩
打开ubuntu终端,执行:curl -fsSL https://ollama.com/install.sh | sh
安装成功后,默认ollama已经运行在后台
sudo systemctl status ollama
sudo ps -ef | grep -v color | grep ollama
sudo apt install net-tools
sudo netstat -anp | grep 11434
查看本地模型:ollama list
本地还没有模型
下载llama3:ollama pull llama3
查看现有模型:ollama list
NAME ID SIZE MODIFIED
llama3:latest a6990ed6be41 4.7 GB 2 minutes ago
curl http://localhost:11434/api/chat -d '{
"model": "llama3",
"messages": [
{ "role": "user", "content": "why is the sky blue?" }
]
}'
# 安装json解析工具
sudo apt update && sudo apt install jq -y
# 非流式访问,并将结果用json格式输出
curl -s http://localhost:12345/api/chat -d '{
"model": "llama3",
"messages": [
{ "role": "user", "content": "你好?" }
],
"stream": false
}' | jq
ollama run llama3
python代码
pip install -U langchain
ip addr
from langchain.llms.ollama import Ollama
from langchain.chat_models.ollama import ChatOllama
llm = Ollama(model="llama3", base_url='http://172.18.205.189:12345')
print(llm.invoke('hello'))
chat = ChatOllama(model="llama3", base_url='http://172.18.205.189:12345')
print(chat.invoke('hello'))
ollama服务
默认以ollama用户
启动运行在后台ollama pull <模型名>
下载模型时,它会存于/usr/share/ollama/.ollama/models/
下,执行:du /usr/share/ollama/.ollama/models/ -d 1 -h
20K /usr/share/ollama/.ollama/models/manifests
4.4G /usr/share/ollama/.ollama/models/blobs
4.4G /usr/share/ollama/.ollama/models/
ollama serve
开启ollama服务
,它是以当前用户启动运行的,会在用户的home
目录下创建.ollama
文件夹。OLLAMA_HOST=127.0.0.1:11434 ollama serve
,所以当11434被占用了,就会报Error: listen tcp 127.0.0.1:11434: bind: address already in use
。OLLAMA_HOST=0.0.0.0:<端口> ollama serve
ollama pull <模型名>
时,相当于执行OLLAMA_HOST=http://localhost:11434 ollama pull <模型名>
,若当前是ollama是以ollama用户启动的,则它会将模型下载到/usr/share/ollama/.ollama/models/
中,若是以当前用户启动的,则会下载到~/.ollama/models/blobs
中ollama list
,没指定OLLAMA_HOST
环境变量,也是同ollama pull
一样,使用默认值OLLAMA_MODELS=/mnt/d/models/.ollama/models OLLAMA_HOST=0.0.0.0:12345 ollama serve
ollama serve
后,将~/.ollama
文件夹直接剪切到另一个地方,比如/mnt/d/models/
~/.ollama
文件夹ln -s /mnt/d/models/.ollama ~/.ollama
OLLAMA_HOST=0.0.0.0:12345 ollama serve
OLLAMA_HOST=http://127.0.0.1:12345 ollama pull qwen
下载模型,它就会将模型下载到/mnt/d/models/.ollama/models
中OLLAMA_HOST=http://localhost:12345 ollama list
ollama好像和fastchat不一样,一次只能启动一个模型,当访问另一个模型时,它就会自动卸载当前模型加载另一个模型。所以土办法是启多个服务,每个服务只让访问一个模型?
执行ollama serve
时,报
说明端口已经被占用
sudo netstat -anp | grep <端口>
,找出使用该端口的进程,将其kill掉OLLAMA_HOST=0.0.0.0:12345 ollama serve
执行
curl http://localhost:11434/api/chat -d '{
"model": "llama3",
"messages": [
{ "role": "user", "content": "why is the sky blue?" }
]
}'
报curl: (7) Failed to connect to localhost port 11434 after 0 ms: Connection refused
,说明ollama服务
没有启动
sudo systemctl start ollama
OLLAMA_HOST=0.0.0.0:11434 ollama serve
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。