当前位置:   article > 正文

给Ollama套个WebUI,方便使用

给Ollama套个WebUI,方便使用

Ollama

基本的安装使用参考前文 https://xugaoxiang.com/2024/05/01/ollama-offline-deploy/,前文使用的模型是 llama2,本篇将使用 llama3,因此在启动时,命令是 ollama run llama3

5437d58f941be38420caf73501f32fc2.jpeg

Ollama

Llama3

Llama3Meta 发布的大语言模型,有两种大小:80亿和700亿参数。这种模型经过大量文本数据的训练,可用于各种任务,包括生成文本、翻译语言、编写不同类型的创意内容以及以信息丰富的方式回答您的问题。Meta 宣称 Llama3 是最好的开放模型之一,但它仍在开发中。这是与 MistralGemma 相比的 8B 模型基准。

c6aad5b493082deb67c67e3294f6235b.jpeg

Llama3

给Ollama套个WebUI

这里使用的是 open-webui,使用 docker 的方式进行。关于 windows 平台如何安装 docker,参考前面的文章 https://xugaoxiang.com/2023/11/16/windows-install-docker/

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

0f2e33d72a66660bcc66a2a72ea19b1b.jpeg

open-webui

成功后,打开浏览器,输入 http://127.0.0.1:300

注册账号

f8e77a13df2d28e88003b650d106c961.jpeg

open-webui

b929d58fac13679bcbb3299995d08b0a.jpeg

open-webui

选择使用的模型,这里就 llama3

2e8e3bfd4b79dc7f33366841605c6eb3.jpeg

open-webui

可以向 llama3 提问了

97a32dc2ef2935f7ce6483740a803459.jpeg

open-webui

参考资料

  • https://xugaoxiang.com/2024/05/01/ollama-offline-deploy/

  • https://github.com/chand1012/openai-cf-workers-ai

  • https://docs.openwebui.com/

  • https://github.com/ollama/ollama/blob/main/docs/api.md

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小小林熬夜学编程/article/detail/548155
推荐阅读
相关标签
  

闽ICP备14008679号