当前位置:   article > 正文

MaxKB-无需代码,30分钟创建基于大语言模型的本地知识库问答系统

MaxKB-无需代码,30分钟创建基于大语言模型的本地知识库问答系统

简介

cb5e10a35a3ffe0b5ca87464e5677e77.jpeg

MaxKB 是一个基于大语言模型 (LLM) 的智能知识库问答系统。它能够帮助企业高效地管理知识,并提供智能问答功能。想象一下,你有一个虚拟助手,可以回答各种关于公司内部知识的问题,无论是政策、流程,还是技术文档,MaxKB 都能快速准确地给出答案:比如公司内网如何访问、如何提交视觉设计需求等等。

核心优势

  • 开箱即用:支持直接上传文档、自动爬取在线文档,支持文本自动拆分、向量化,智能问答交互体验好;
  • 无缝嵌入:支持零编码快速嵌入到第三方业务系统;
  • 多模型支持:支持对接主流的大模型,包括本地私有大模型(如Llama 2)、OpenAI、Azure OpenAI和百度千帆大模型等。

如何部署Ollama+MaxKB

本文将介绍如何基于Ollama+MaxKB快速搭建企业级知识库问答系统,这套方案具有以下优点:

  • 安全性高:可以完全私有化地部署在企业内部
  • 自带权限管理:可以分配多个账号,并对知识库和应用做权限管理,便于为企业内的不同角色分别权限
  • 部署成本低:MaxKB用到的embedding模型和LLM模型也都是开源免费的
  • 易用性高:除了服务启动以外,所有操作都通过网页交互完成,不懂编程的用户(如客服、运营)也可以快速上手使用。

Github地址:

https://github.com/1Panel-dev/MaxKB

环境要求

由于MaxKB当前仅支持Linux(Ubuntu或CentOS),所以本文介绍的也是在Linux服务器上通过Docker容器进行部署的方法。

除了上面截图中的环境要求外,建议docker的版本不低于20.10.8,否则可能无法启动Ollama服务。

Ollama的安装部署

首先拉取ollama的docker镜像:

docker pull ollama/ollama:0.1.32

然后启动ollama的服务,注意容器内ollama的服务是在11434端口,然后我们通过-p将ollma的服务映射到宿主机的11434端口:

docker run -d --network host -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama:0.1.32

MaxKB的安装部署

同样先拉取maxkb的docker镜像:

docker pull 1panel/maxkb:v1.0.4

然后启动maxkb的服务:

docker run -d --name=maxkb -p 8080:8080 -v ~/.maxkb:/var/lib/postgresql/data 1panel/maxkb

接下来就可以通过浏览器访问maxkb的网页,ip即为maxkb和ollama提供服务的机器ip,端口为8080:

初次登录的用户名为admin,密码为MaxKB@123..密码包含省略号

下载大模型

依次点击系统设置->模型设置->Ollama->添加模型

模型名称填写自定义的名称即可

模型类型选择 大语言模型基础模型不能随意填写,只能使用ollma模型库中已有的模型类型:https://ollama.com/library,这里我们用的是qwen:1.8b

API域名填写前面ollama起服务的机器ip和端口(11434)

API Key随便填

9cbb1c4f2c2df62f57ac892871079e26.jpeg8bfb4f7a1250abeda69f9db1cc10035e.jpeg

点击‘添加’后模型开始下载,一般需要几分钟的时间才能下载完成:

创建知识库

点击知识库->创建知识库,填入知识库名称/描述/类型,然后点击上传文档:

创建应用

大模型和知识库创建成功后,就可以创建应用了。点击“应用->创建应用”,填入应用名称和应用描述,注意这里AI模型和关联知识库要选择前面两步创建的AI模型和知识库。

高性价比GPU算力:https://www.ucloud.cn/site/active/gpu.html?ytag=gpu_wenzhang_0618_shemei


声明:本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:【wpsshop博客】
推荐阅读
相关标签
  

闽ICP备14008679号