当前位置:   article > 正文

基于chatOllama实现本地RAG应用_chatollama本地部署

chatollama本地部署

基于chatOllama100%实现本地RAG应用

环境

  • Windows 10
  • Docker
  • ollama

基于Docker环境安装chatOllama

下载chatOllama

下载到桌面docker-compose.yaml,并在命令行中执行如下命令,开始下载相关docker

cd C:\Users\Administrator\Desktop
docker compose up
  • 1
  • 2

在这里插入图片描述

下载完成后会看到Docker Desktop中有三个容器在运行
在这里插入图片描述

配置环境变量

由于chatOllama是运行是docker容器中,所以需要在本机设置环境变量,将chatOllama的地址设置为环境变量,方便后续调用

OLLAMA_HOST=http://host.docker.internal:11434
  • 1

在这里插入图片描述

初始化SQLite数据库
docker compose exec chatollama npx prisma migrate dev
  • 1

在这里插入图片描述

下载文本嵌入模型
ollama pull nomic-embed-text:latest
  • 1

访问chatOllama

访问地址:http://l27.0.0.1:3000/

看到如下页面说明chatollama已经成功运行

在这里插入图片描述

配置chatOllama

进入设置页面,配置ollama server,地址配置为:
http://host.docker.internal:11434
在这里插入图片描述

模型下载

进入模型下载页面,下载模型,因为我之前用ollama pull过很多模型,所以这里就展示出来了,如果没有下载过,在下载地址栏输入模型名称即可

在这里插入图片描述

本地知识库

导入本地文件

进入知识库页面,点击导入本地文件,选择本地文件,点击导入即可,支持多个文件导入
在这里插入图片描述

本地文件内容:
在这里插入图片描述

配置chat

导入完成之后,点击opsany部署,进入chat页面,点击编辑按钮就入编辑页面,选择模型
在这里插入图片描述

开始问答

根据文档内容提问,可以得到相应的回答,可以看到回答的内容和上传的文档内容大致相似,并且可以看到来源是pdf文档
在这里插入图片描述

以下是没有使用本地知识库的情况

可以看到回答和上传的问答是明显不一样的
在这里插入图片描述

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小小林熬夜学编程/article/detail/722678
推荐阅读
相关标签
  

闽ICP备14008679号