赞
踩
通过简单的安装指令,可以让用户执行一条命令就在本地运行开源大型语言模型,如gemma。
1、访问官网,点击【Download】进行下载https://ollama.com/
2、目前支持Linux、Mac和windows
3、github链接:https://github.com/ollama/ollama
1、点击【View logs】进入ollama目录
2、运行gemma:2b模型(如未下载,会自动下载)
3、提问
ollama run gemma:2b
1、webapi方式运行
./ollama serve
2、如需指定端口,可在环境变量中进行配置
3、安装openai工具包
pip install openai
4、openai格式调用ollama部署的接口
import openai # 设置api_base openai.api_key = "111" #不可为空,为空会报错 openai.api_base = "http://127.0.0.1:8000/v1" # 2. 设置提示词 prompt = """ 你是谁? """ # 3.调用(可切换模型) # resp = openai.ChatCompletion.create(model="llama2", messages=[{"role": "user", "content": prompt}], stream = False) resp = openai.ChatCompletion.create(model="llama2-chinese", messages=[{"role": "user", "content": prompt}], stream = False) # resp = openai.ChatCompletion.create(model="gemma:7b", messages=[{"role": "user", "content": prompt}], stream = False) # 4.输出 print(resp.choices[0].message.content)
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。