当前位置:   article > 正文

ollama 调用本地模型qwen:1.8b代码_langchain qwen1.8b

langchain qwen1.8b

安装:

ollama run qwen:0.5b
ollama run qwen:1.8b


vscode而不是cmd调用 D:\Research\flower_exif\gemma_local.py

from langchain.callbacks.manager import CallbackManager
from langchain.callbacks.streaming_stdout import StreamingStdOutCallbackHandler
from langchain_community.llms.ollama import Ollama
 
llm = Ollama(base_url="http://localhost:11434",model="qwen:1.8b",)
 
def get_completion_ollama(prompt):
    return llm.invoke(prompt)
 
prompt = 'could you describe a storm weather'
res = get_completion_ollama(prompt=prompt)

本文内容由网友自发贡献,转载请注明出处:https://www.wpsshop.cn/w/小蓝xlanll/article/detail/707058
推荐阅读
相关标签
  

闽ICP备14008679号