当前位置:   article > 正文

ollama与open-webui、lobe-chat简单使用案例_ollmo运行qwen并生成调用bsh

ollmo运行qwen并生成调用bsh

参考:
https://github.com/ollama/ollama
https://github.com/open-webui/open-webui

ollama最为大模型后端服务
open-webui、lobe-chat前端聊天页面

ollama直接下载客服端安装win cpu安装推理;open-webui、lobe-chat使用docker安装

1、ollama

安装好后可以直接运行,cpu使用不稳定比较慢

ollama run qwen:1.8b
  • 1

具体可下载模型列表:https://ollama.com/library
在这里插入图片描述

2、open-webui

本地安装ollama运行后可以使用下面运行

docker run -d -p 3000:8080 --
    声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/很楠不爱3/article/detail/507794
    推荐阅读
    相关标签
      

    闽ICP备14008679号