当前位置:   article > 正文

一键部署本地私人专属知识库,开源免费!可接入GPT-4、Llama 3、Gemma、Kimi等几十种大模型,零代码集成。_marxkb

marxkb

1、MarxKB知识共享系统简介

今天跟大家分享的内容是,如何在本地搭建自己的本地知识库问答系统MaxKB,与其他问答知识库相比,他真正做到了开箱即用,零代码集成,支持ChatGPT、百度千帆、Lama2、Lama3,通义千问等几十种大语言模型,操作界面简介,小白也能快速上手。【注意在正式搭建知识库问答系统之前,请确保你的Windows系统已经升级到了专业版本,同时拥有一张独立的显卡!!

2、搭建本地知识库问答系统MarxKB的优势

在部署好MarxKB后,你可以添加个人笔记,工作文档,甚至在线网页到知识库里面,然后通过建立索引加上大语言模型对这些知识库的理解实现对文档内容的实时搜索与问答。所有的程序和文档都不会离开你的电脑,完全运行在本地。

3、在电脑上安装Docker

到目前为止,MarksKB目前在Windows系统上,只能通过Docker的镜像来部署,因此我们需要提前在电脑上安装Docker。打开下面的Docker应用程序下载地址:

https://www.docker.com/products/docker-desktop/
  • 1

在下载Docker后,在本地电脑上完成安装,注意在安装过程中,我们需要确保"Use WSL 2 instead of Hyper-V (recommended)"这一功能被启用,docker的具体安装过程可以参看下图所示的教程,必要时可以重启电脑。

4、使用docker安装MarxKB镜像

在完成docker的安装后,我们先打开终端,然后在终端输入下面的指令

docker pull 1panel/maxkb
  • 1

将docker镜像下载到本地电脑上,

整个MaxKb的镜像大小为2GB左右。

5、为MaxKB镜像创建一个容器

打开Docker图形化界面,左侧菜单栏点击Images图标,然后你就会看到刚刚下载的docker镜像,点击右侧的三角图标就可以重新创建容器了,

弹出的界面点击向下的箭头,展开选项,容器名称选择MarskB,第一个端口默认是8080,第二个端口是在应用程序运行后需要访问的端口,这里我们也将其设置为8080,

下一步,在本地设备上,创建一个存放知识库数据的文件夹,并记住这个文件夹的路径,随后回到刚才的Docker界面,找到Volumes项,这这里填入刚才的知识库路径,随后在Container path这一栏中填入“/var/lib/postgresql/data”,最后点击RUN按钮,这样一个MarKB容器就算是搭建完毕了!

我们用浏览器打开下面的网址,

http://127.0.0.1:8080
  • 1

就可以启动了MarKB应用界面了,不过这里需要提供登录账号和密码,

登录账号和密码可以关注下面的微信公众号,并回复关键词“MarKB”即可获取,

6、在MarKB上创建知识库

初次登录到MarKB后,需更改登录用户名和登录密码。完成修改后,导航到创建知识库页面,在这里,你需要为将创建的知识库命名,并输入几段简要内容进行描述,随后就是根据自己的需要创建自己的知识库系统,这里的知识库系统有两种,一种是用某个网站上作为建设知识库的数据来源,另外一种则是直接使用本地文本

这里我们使用"通用型",也就是通过使用本地文本的方式来搭建知识库,点击进入“文档上传”界面,这里上传你的知识库数据,这些数据格式既可以是txt,也可以是word、pdf、ppt等,在确定需要上传的文档后,点击右下角的**“创建并导入**”按钮。

在导入文档后,在“设置分段规则”这里我们选择“智能分段”,随后点击开始导入按钮。

文档导入过程的时间长短取决于文档内容的多少,文档内容阅读导入时间就越长。

7、配置本地大语言模型

在MarKB应用界面内,点击系统设置,然后再进入模型设置界面,在这里,你可以看到MarKB目前能够支持的大语言模型,如百度千帆、Azure OpenAI、ChatGPT、ollama等类型的模型。这里除了ollama可以本地使用外,其他平台的大语言模型均需要你提供对应的API密钥。

由于本期演示的主要内容就是通过本地启用本地大语言模型来构建自己的知识库系统,所以接下来我们探讨如何在本地部署并启用ollama上的大语言模型,首先请确保你的设备上已经安装了ollma,如果还没有安装,那么可以通过下面的地址来下载ollma本地安装包,然后快速完成安装。

https://ollama.com/download
  • 1

你可以在ollma的官方网站主页上查看可以在本地运行的大型语言模型的列表!

这里我们使用最近开源的大语言模型llama3来作为运行本地知识库的大语言模型,到ollama模型列表界面,选中并打开llama3模型界面,在界面最底部找到下载llama3模型的命令,

如果你的设备显存足够大,那么你可以使用指令:

ollama run llama3:70b
  • 1

来下载大语言模型llama3,反之,你就使用参数较低的8B模型,指令如下:

ollama run llama3
  • 1

在模型下载完毕后,你就可以在终端直接和本地部署的大语言模型llama3对话了,关闭界面后,下次使用只需再次运行命令即可!

8、将大语言模型和本地知识库相互关联

回到MarKB的系统设置界面内,点击模型设置,模型名称随便写,模型类型写大语言模型,模型列表这里,如果你使用ollama下载了大语言模型,那么么这里的列表中将会有相应的模型,

下面的API密钥随便写,API域名则写入下面的内容:

http://host.docker.internal:11434
  • 1

具体演示请见下图:

完成内容填写后,点击提交。

9、创建本地知识库应用

回到MarKB主界面,点击应用,然后创建应用,随后依次填写应用名称、应用描述,AI模型这里选中我们刚刚关联到MarKB上的大语言模型,如下所示:

打开多轮对话,接下来需要将这个应用关联到前面我们创建的知识库,

在接下来的界面内,你就会看到我们先前创建本地问答系统知识库了,点击它使大语言模型和知识库相结合,

完成后,点击创建按钮即可,如下所示:

到这里,一个使用大语言模型理解本地文档的问答系统就算建好了,点击下图所示的按钮就打开对话页面,

MaxKB使用演示情况如下图所示:

如何学习大模型 AGI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

-END-


声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家小花儿/article/detail/1010186

推荐阅读
相关标签