赞
踩
在本地先安装Ollama
Windows11以下系统需要进行更新。
Win10必更新到版本号:22H2,操作系统内部版本:19045.4412及以上版本。▲注意:设置好后重启电脑
控制面板→程序→启用或关闭Windows功能,设置(打勾):“Hyper-V”,“Windows 虚拟机监护程序平台”,“适用于 Linux 的 Windows 子系统”,“虚拟机平台”。▲注意:设置好后重启电脑
Error code: Wsl/InstallDistro/WININET_E_NAME_NOT_RESOLVED
的错误,按照这篇文章进行解决。{
“builder”: {
“gc”: {
“defaultKeepStorage”: “20GB”,
“enabled”: true
}
},
“experimental”: false,
“registry-mirrors”: [
“https://dockerproxy.com 32”,
“https://docker.mirrors.ustc.edu.cn 28”,
“https://docker.nju.edu.cn 14”
]
}
docker run -d --name=maxkb -p 8080:8080 -v ~/.maxkb:/var/lib/postgresql/data 1panel/maxkb
在安装完镜像之后,还不能直接创建知识库,需要先删掉自动部署的MaxKB容器重新创建:
在Container
中点开自动部署的maxkb容器,关闭右上角的Raw JSON
选项,找到PGDATA
这一项,这一项是数据保存的路径,先将该路径进行保存。
在Container
中删除自动部署的容器之后,按照以下配置进行创建:
第一个Host Port
可以不填,第二个Host Port
填写8080,第一个Host Path
填写在本地磁盘新建的知识库的保存路径,第二个Container Path
填写之前保存的数据保存路径,并进行创建。然后,就成功创建了容器。
在浏览器输入地址:http://localhost:11434
→出现信息:Ollama is running
(可见Ollama已在本地运行)
关于maxKB内API域名设置问题:▲设置好后重启Ollama
添加用户变量:
变量名:OLLAMA_HOST
变量值:0.0.0.0
将所有知识库的文件导入知识库中,可以选择通用型配置和Web 站点的方式进行配置,选择智能分段
即可,一次最多上传50个文件。
点击系统设置->模型设置
,选择添加模型,类似OpenAI,千帆大模型等都是在线接入的方式,需要有相应的账号和API Key,如果要通过本地运行,应该选择Ollama,Ollama是一个支持在本地运行的大模型框架。
可以在Ollama的模型库中选择需要的模型及其执行命令,并在命令窗口中执行
本文选择在Ollama中搭载通义千问的大模型。
ollama run qwen:7b
由于我电脑的显存只有10G,因此选择了最大的选择qwen:7b
。面向中文的文档和知识库构建,国产的大模型对中文的理解会更好。
点击系统设置->模型设置
中选择Ollama新建模型,如下图所示:
模型名称和基础模型都尽量填写和该模型相关的名称,模型类型选择大语言模型
,API域名填写API域名:http://host.docker.internal:11434
,API Key可以随意填写。
在模型添加完毕并且命令窗口成功运行之后,可以在命令窗口测试和LLM是否能够正常进行对话。
模型名称和模型描述都可以简要概括,AI模型选择创建好的模型,可以对提示词进行适当的修改以得到更好的输出,并且把多轮对话
打开,添加我们所创建好的知识库。
完成之后,直接发布并进行对话即可。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。