赞
踩
MaxKB 是一个基于大语言模型 (LLM) 的智能知识库问答系统。它能够帮助企业高效地管理知识,并提供智能问答功能。想象一下,你有一个虚拟助手,可以回答各种关于公司内部知识的问题,无论是政策、流程,还是技术文档,MaxKB 都能快速准确地给出答案:比如公司内网如何访问、如何提交视觉设计需求等等。
本文将介绍如何基于Ollama+MaxKB快速搭建企业级知识库问答系统,这套方案具有以下优点:
Github地址:
https://github.com/1Panel-dev/MaxKB
由于MaxKB当前仅支持Linux(Ubuntu或CentOS),所以本文介绍的也是在Linux服务器上通过Docker容器进行部署的方法。
除了上面截图中的环境要求外,建议docker的版本不低于20.10.8,否则可能无法启动Ollama服务。
首先拉取ollama的docker镜像:
docker pull ollama/ollama:0.1.32
然后启动ollama的服务,注意容器内ollama的服务是在11434端口,然后我们通过-p将ollma的服务映射到宿主机的11434端口:
docker run -d --network host -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama:0.1.32
同样先拉取maxkb的docker镜像:
docker pull 1panel/maxkb:v1.0.4
然后启动maxkb的服务:
docker run -d --name=maxkb -p 8080:8080 -v ~/.maxkb:/var/lib/postgresql/data 1panel/maxkb
接下来就可以通过浏览器访问maxkb的网页,ip即为maxkb和ollama提供服务的机器ip,端口为8080:
初次登录的用户名为admin,密码为MaxKB@123..密码包含省略号
依次点击系统设置->模型设置->Ollama->添加模型
模型名称填写自定义的名称即可
模型类型选择 大语言模型基础模型不能随意填写,只能使用ollma模型库中已有的模型类型:https://ollama.com/library,这里我们用的是qwen:1.8b
API域名填写前面ollama起服务的机器ip和端口(11434)
API Key随便填
点击‘添加’后模型开始下载,一般需要几分钟的时间才能下载完成:
点击知识库->创建知识库,填入知识库名称/描述/类型,然后点击上传文档:
大模型和知识库创建成功后,就可以创建应用了。点击“应用->创建应用”,填入应用名称和应用描述,注意这里AI模型和关联知识库要选择前面两步创建的AI模型和知识库。
高性价比GPU算力:https://www.ucloud.cn/site/active/gpu.html?ytag=gpu_wenzhang_0618_shemei
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。