当前位置:   article > 正文

MaxKB结合Ollama实现本地化机器人对话和知识库检索

maxkb

MaxKB 是一款基于 LLM 大语言模型的知识库问答系统。MaxKB = Max Knowledge Base,旨在成为企业的最强大脑。

开箱即用:支持直接上传文档、自动爬取在线文档,支持文本自动拆分、向量化,智能问答交互体验好;

无缝嵌入:支持零编码快速嵌入到第三方业务系统;

  • 前端:Vue.js
  • 后端:Python / Django
  • LangChain:LangChain
  • 向量数据库:PostgreSQL / pgvector
  • 大模型:Azure OpenAI、OpenAI、百度千帆大模型、Ollama、通义千问、Kimi、智谱 AI、讯飞星火


1、安装MaxKB
docker run -d --name=maxkb -p 8080:8080 -v ~/.maxkb:/var/lib/postgresql/data 1panel/maxkb
访问:http://localhost:8080/ui/login进入登录页面
# 用户名: admin
# 密码: MaxKB@123..


2、安装ollama和gemma(大约半个小时) 
vim install-ollama-centos7.sh

  1. info(){
  2. echo -e "\033[34m 【`date '+%Y-%m-%d %H:%M:%S'`】\033[0m" "\033[35m$1\033[0m "
  3. }
  4. install_docker(){
  5. #!/bin/bash
  6. info "安装依赖..."
  7. yum -y install gcc
  8. yum -y install gcc-c++
  9. ##验证gcc版本
  10. gcc -v
  11. info "安装Docker(指定版本:23.0.6)"
  12. wget https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo -O/etc/yum.repos.d/docker-ce.repo
  13. ##更新yum软件包索引
  14. yum makecache fast
  15. ## 安装docker ce cli
  16. # 查看可安装版本:yum list docker-ce --showduplicates | sort -r
  17. yum -y install docker-ce-23.0.6-1.el7 docker-ce-cli-23.0.6-1.el7
  18. info "启动Docker并验证"
  19. systemctl enable docker && systemctl start docker
  20. docker version
  21. ## 创建加速器
  22. #cd /etc/docker
  23. #if [ ! -f "$daemon.json" ]; then
  24. # touch "$daemon.json"
  25. #else
  26. # rm -rf daemon.json
  27. # touch "$daemon.json"
  28. #fi
  29. #tee /etc/docker/daemon.json <<-'EOF'
  30. #{
  31. # "registry-mirrors": ["https://自己的镜像加速器地址"]
  32. #}
  33. #EOF
  34. #systemctl daemon-reload
  35. #systemctl restart docker
  36. info "Docker(23.0.6)安装完毕!"
  37. }
  38. # 安装 Ollama
  39. install_Ollama(){
  40. info "参考IP地址:"$(hostname -I)
  41. read -p "请问,您当前服务器的内网IP地址是?:" inner_ip
  42. inner_ip="${inner_ip:-127.0.0.1}"
  43. docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama --restart always ollama/ollama
  44. info "ollama部署完毕,开始下载gemma大模型..."
  45. docker exec -it ollama ollama run gemma “你好”
  46. info "gemma大模型加载完成,开始部署webui界面..."
  47. docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=http://${inner_ip}:11434 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.nju.edu.cn/open-webui/open-webui:main
  48. eip=$(curl ifconfig.me/ip)
  49. info "部署完毕,正在启动WEBUI界面,大约5分钟后,请访问:http://${eip}:3000"
  50. }
  51. install_docker
  52. install_Ollama


$ chmod +x install-ollama-centos7.sh
$ ./install-ollama-centos7.sh

3、验证安装:
docker ps
docker exec -it ollama ollama list
docker logs -f open-webui
浏览器访问ollama:http://localhost:3000 (需要等待WEBUI启动,并且放通了3000端口的访问规则)

4、配置MaxKB
在maxkb 管理界面中系统设置-模型设置选择ollama,基础模型选择gemma,api域名填写http://10.32.23.15:11434,apikey随便填写;


新建知识库,上传文档,命中处理方式可以选择模型优化/直接回答;
新建应用,关联知识库和模型ollama-gemma模型;

注意事项:
1、目前镜像及大模型下载速度尚可,但由于容量较大,所以建议使用100Mbit/s以上的带宽。
2、2个容器镜像大小约为4G左右,大模型采用Gemma:9B,大约4.7G。
3、Ollama启动方式采用CPU only,由于没有GPU,所以运行速度较慢,建议采用16核以上的服务器。
4、为了降低入门体验门槛,所以规避掉了对于硬件GPU的要求,如想“顺滑”体验,还请使用带GPU的基础设施。
5、脚本部署过程,控制台会提示,输入内网IP地址,输入后才会继续执行,切勿一直等待。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/笔触狂放9/article/detail/991279
推荐阅读
相关标签
  

闽ICP备14008679号