当前位置:   article > 正文

部署你的专属私有AI大模型_如何部署ai私有化大模型

如何部署ai私有化大模型

目录

准备Docker环境

安装Docker

启动Docker

准备Docker-Compose

准备源代码

启动服务

修改docker-compose.yaml文件

启动

测试使用

访问

注册账号

选择模型

下载模型


        现在AI模型大家应该都不陌生,使用AI可以极大的提高我们工作和生活的变量,但是我们大多是使用的AI都需要联网或者收费,那么有没有想要部署一个自己专属的AI大模型呢,今天就带大家来操作一下。

        本次是基于CentOS7.9环境进行的操作,并且采用容器化方式部署,大大简化了操作流程

准备Docker环境

安装Docker

  1. yum install -y yum-utils device-mapper-persistent-data lvm2
  2. yum-config-manager --add-repo https://download.docker.com/linux/centos/docker-ce.repo
  3. yum -y install docker-ce docker-ce-cli containerd.io

启动Docker

  1. # 启动服务
  2. systemctl start docker
  3. systemctl enable docker

准备Docker-Compose

安装Docker Compose的时候可能会因为网络安装的慢或者无法安装,可以开启魔法,也可以评论区@我

  1. curl -L "https://github.com/docker/compose/releases/download/1.24.1/docker-compose-$(uname -s)-$(uname -m)" -o /usr/local/bin/docker-compose
  2. chmod +x /usr/local/bin/docker-compose
  3. ln -s /usr/local/bin/docker-compose /usr/bin/docker-compose
  4. docker-compose --version

准备源代码

  1. git clone https://github.com/open-webui/open-webui.git
  2. [root@bogon ~]# git clone https://github.com/open-webui/open-webui.git
  3. Cloning into 'open-webui'...
  4. remote: Enumerating objects: 22440, done.
  5. remote: Counting objects: 100% (517/517), done.
  6. remote: Compressing objects: 100% (183/183), done.
  7. remote: Total 22440 (delta 301), reused 460 (delta 272), pack-reused 21923
  8. Receiving objects: 100% (22440/22440), 48.51 MiB | 1.70 MiB/s, done.
  9. Resolving deltas: 100% (14679/14679), done.

启动服务

修改docker-compose.yaml文件

  1. # 修改第一行版本
  2. # 注释第14行到第18行
  3. [root@bogon open-webui]# cat docker-compose.yaml
  4. version: '3'
  5. services:
  6. ollama:
  7. volumes:
  8. - ollama:/root/.ollama
  9. container_name: ollama
  10. #pull_policy: always
  11. tty: true
  12. restart: unless-stopped
  13. image: ollama/ollama:${OLLAMA_DOCKER_TAG-latest}
  14. open-webui:
  15. #build:
  16. # context: .
  17. # args:
  18. # OLLAMA_BASE_URL: '/ollama'
  19. # dockerfile: Dockerfile
  20. image: ghcr.io/open-webui/open-webui:${WEBUI_DOCKER_TAG-main}
  21. container_name: open-webui
  22. volumes:
  23. - open-webui:/app/backend/data
  24. depends_on:
  25. - ollama
  26. ports:
  27. - ${OPEN_WEBUI_PORT-3000}:8080
  28. environment:
  29. - 'OLLAMA_BASE_URL=http://ollama:11434'
  30. - 'WEBUI_SECRET_KEY='
  31. extra_hosts:
  32. - host.docker.internal:host-gateway
  33. restart: unless-stopped
  34. volumes:
  35. ollama: {}
  36. open-webui: {}

启动

  1. [root@bogon ~]# cd open-webui/
  2. [root@bogon open-webui]# docker-compose up -d --build
  3. # 启动完成以后查询容器状态
  4. [root@bogon open-webui]# docker-compose ps
  5. Name Command State Ports
  6. ---------------------------------------------------------------------------------
  7. ollama /bin/ollama serve Up 11434/tcp
  8. open-webui bash start.sh Up 0.0.0.0:3000->8080/tcp,:::3000->8080/tcp

测试使用

访问

打开浏览器访问服务器的ip加上3000端口

http://192.168.207.131:3000

注册账号

选择模型

ollama里面有很多模型可以使用,但是需要我们下载,经过测试觉得比较好用的一个是openchat(当然也有其他的,大家可以多测试测试,选择一个好用的,这里面我就用openchat了)

下载模型

下载完成以后会有>>>提示符输入/bye按回车即可

  1. [root@bogon open-webui]# docker exec -it ollama ollama run openchat
  2. pulling manifest
  3. pulling 1cecc26325a1... 100% ▕█████████████████████▏ 4.1 GB
  4. pulling 43070e2d4e53... 100% ▕█████████████████████▏ 11 KB
  5. pulling d68706c17530... 100% ▕█████████████████████▏ 98 B
  6. pulling 415f0f6b43dd... 100% ▕█████████████████████▏ 65 B
  7. pulling 278996753456... 100% ▕█████████████████████▏ 483 B
  8. verifying sha256 digest
  9. writing manifest
  10. removing any unused layers
  11. success
  12. >>> /bye

刷新浏览器,选择模型

接下来你就可以尽情体验了

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小舞很执着/article/detail/939199
推荐阅读
相关标签
  

闽ICP备14008679号