当前位置:   article > 正文

Ollama +Mixtral + ChatBox 搭建本地团队使用的大语言模型_ollama+chatbox+sd

ollama+chatbox+sd

关于Ollama和Mixtral-8*7B以及ChatBox

  1. Ollama是一个 开源的本地大语言模型运行平台,通过类似Docker的CLI界面可以快速的在本地进行大语言模型的推理部署。
  2. Mixtra-87B模型是法国明星初创团队 Mistral 最新推出的首个开源混合专家 MoE 模型。我在Git上找到了ymcui大神基于Mixtra-87B 0.1版本精调的中文混合专家模型。中文Mixtral混合专家模型
  3. ChatBox是个接入多个主流大语言模型的APP,1.30版本对Ollama本地服务的适配很不错,推荐。Chatbox下载链接

环境准备

我们的部署环境如下:

  1. 硬件环境
    1. AMD 5950X
    2. 128GB RAM
    3. RTX 3090(24G VRAM)
  2. 操作系统
    1. Win 10 19045.4170

Ollama安装

  1. Ollama Windows Preview页面 下载Ollama服务端应用:Ollama Windows Preview
  2. 安装后,操作系统会自动启动ollama服务,并在11434端口监听。
  3. 在命令行或者PowerShell中测试以下命令,ollama会自动下载llama2中文版本的4-bit 量化模型文件,需要至少 8GB 的内存进行推理。
ollama pull llama2-chinese
  • 1

使用pull命令下载llama2-chinese模型文件然后使用run命令运行llama2-chinese模型:

ollama run llama2-chinese '如何使用httpd配置反向代理?'
  • 1

ollama会很快推理并反馈如下结果:
在这里插入图片描述这说明Ollama服务已经成功部署在我们的本地服务器上了

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/从前慢现在也慢/article/detail/670115
推荐阅读
相关标签