当前位置:   article > 正文

[Docker]十二.Docker consul集群搭建、微服务部署,Consul集群+Swarm集群部署微服务实战_consul docker swarm

consul docker swarm

一.Docker consul集群搭建

Consul Go 语言写的开源的服务发现软件, Consul 具有 服务发现、健康检查、 服务治理、微服务熔断处理 等功能,在微服务中讲过如何搭建consul集群,接下来看看在 Dokcer 中如何去创建搭建consul 集群

1.linux上面部署consul集群

参考[golang 微服务] 5. 微服务服务发现介绍,安装以及consul的使用,Consul集群 

2.Docker上面部署consul集群

(1).Dokcer Consul 参数详解

-net=host

        docker参数,使得docker容器越过了net namespace的隔离,免去手动指定端口映射的步骤

-server
        consul 支持以 server client 的模式运行 ,server 是服务发现模块的核心 ,client主要用于转          发请求
-advertise
        将本机私有 IP 传递到 consul
-retry-join
        指定要加入的 consul 节点地址,失败后会重试 , 可多次指定不同的地址
-client
        指定 consul 绑定在哪个 client 地址上,这个地址可提供 HTTP , DNS , RPC 等服务,默认是
        127.0.0.1
-bind
        绑定服务器的 ip 地址,该地址用来在集群内部的通讯,集群内的所有节点到地址必须是可达
        的,默认是0.0.0.0
-allow_stale
        设置为 true 则表明可从 consul 集群的任一 server 节点获取 dns 信息 , false则表明每次请求         都会经过 consul server leader
-bootstrap-expect
        数据中心中预期的服务器数,指定后,Consul 将等待指定数量的服务器可用,然后 启动群 
        集,允许自动选举leader ,但不能与传统 -bootstrap 标志一起使用 , 需要在 server 模式下运行
-data-dir
        数据存放的位置,用于持久化保存集群状态
-node
        群集中此节点的名称,这在群集中必须是唯一的,默认情况下是节点的主机名
-config-dir
        指定配置文件,当这个目录下有 .json 结尾的文件就会被加载
-enable-script-checks
        检查服务是否处于活动状态,类似开启心跳
-datacenter
        数据中心名称
-ui
        开启 ui 界面
-join
        指定 ip, 加入到已有的集群中

(2).启动第一个节点consul1

官网:https://hub.docker.com/_/consul,需要先下载consul, 这里以192.168.31.241这台服务器演示:

  1. [root@manager_241 ~]# docker pull consul
  2. Using default tag: latest
  3. Error response from daemon: manifest for consul:latest not found: manifest unknown: manifest unknown

上面的问题是consul貌似没有latest版本,需指定版本下载

  1. [root@manager_241 ~]# docker pull consul:1.14.1
  2. 1.14.1: Pulling from library/consul
  3. 9621f1afde84: Pull complete
  4. ...
  5. 92968d126abf: Pull complete
  6. Digest: sha256:d8f44192b5c1df18df4e7cebe5b849e005eae2dea24574f64a60a2abd24a310e
  7. Status: Downloaded newer image for consul:1.14.1
  8. docker.io/library/consul:1.14.1
  9. [root@manager_241 ~]# docker images
  10. REPOSITORY TAG IMAGE ID CREATED SIZE
  11. gowebimg v1.0.1 be3c1ee42ce2 2 days ago 237MB
  12. mycentos v1 4ba38cf3943b 3 days ago 434MB
  13. nginx latest a6bd71f48f68 3 days ago 187MB
  14. 6053537/portainer-ce latest b9c565f94ccc 4 weeks ago 322MB
  15. mysql latest a3b6608898d6 4 weeks ago 596MB
  16. consul 1.14.1 8540a77af6e2 12 months ago 149MB

启动第一个节点consul1(创建一个consul服务/容器):

  1. docker run --name consul1 -d -p 8500:8500 -p 8300:8300 -p 8301:8301 -p 8302:8302 -p 8600:8600 consul agent -server -bootstrap-expect=3 -ui -bind=0.0.0.0 -client=0.0.0.0
  2. 或者
  3. docker run --name consul1 -d -p 8500:8500 consul agent -server -bootstrapexpect=3 -ui -bind=0.0.0.0 -client=0.0.0.0

参数说明;

        --name consul1 指定启动的consul容器名字为consul1,

        -p 暴露的端口

        consul 通过consul镜像运行一个consul容器

        agent -server 表示启动一个consul服务端

        -d 后台运行

        -bootstrap-expect=3 启动的consul容器数量

        -ui 可以通过web访问

        -bind 绑定的ip地址

        -clien=0.0.0.0 表示所有客户端都可以加入

        

端口说明:

        8500 : http 端口,用于 http 接口和 web ui访问

        8300 : server rpc 端口,同一数据中心 consul server 之间通过该端口通信

        8301 : serf lan 端口,同一数据中心 consul client 通过该端口通信 ; 用于处理当前
                    datacenter中LAN 的gossip通
        8302 : serf wan 端口,不同数据中心 consul server 通过该端口通信 ; agent Server 使
                    用,处理与其他datacenter的gossip 通信
        8600 : dns 端口,用于已注册的服务发现     

具体命令如下:

  1. [root@worker_241 ~]# docker pull consul
  2. Using default tag: latest
  3. Error response from daemon: manifest for consul:latest not found: manifest unknown: manifest unknown
  4. [root@worker_241 ~]#

发现不能下载consul,这是因为没有latest版本的consul,需要指定consul具体版本下载,这里search查看一下: 

  1. [root@worker_241 ~]# docker search consul
  2. NAME DESCRIPTION STARS OFFICIAL AUTOMATED
  3. consul Consul is a datacenter runtime that provides… 1427 [OK]
  4. hashicorp/consul-template Consul Template is a template renderer, noti… 29
  5. hashicorp/consul Automatic build of consul based on the curre… 53 [OK]

这里使用hashicorp/consul,效果和consul一样,下载:

  1. [root@worker_241 ~]# docker pull hashicorp/consul
  2. Using default tag: latest
  3. latest: Pulling from hashicorp/consul
  4. 96526aa774ef: Pull complete
  5. 8a755a53c1aa: Pull complete
  6. fd305fe2d878: Pull complete
  7. 01d12fe0b370: Pull complete
  8. cbc103c13062: Pull complete
  9. 4f4fb700ef54: Pull complete
  10. 3a5b5f5fe822: Pull complete
  11. Digest: sha256:712fe02d2f847b6a28f4834f3dd4095edb50f9eee136621575a1e837334aaf09
  12. Status: Downloaded newer image for hashicorp/consul:latest
  13. docker.io/hashicorp/consul:latest
  14. [root@worker_241 ~]#
  15. [root@worker_241 ~]# docker images
  16. REPOSITORY TAG IMAGE ID CREATED SIZE
  17. gowebimg v1.0.1 be3c1ee42ce2 4 days ago 237MB
  18. nginx <none> a6bd71f48f68 5 days ago 187MB
  19. hashicorp/consul latest 48de899edccb 3 weeks ago 206MB
  20. mysql latest a3b6608898d6 4 weeks ago 596MB

创建并启动consul1

  1. [root@worker_241 ~]# docker run --name consul1 -d -p 8500:8500 -p 8300:8300 -p 8301:8301 -p 8302:8302 -p 8600:8600 hashicorp/consul agent -server -bootstrap-expect=3 -ui -bind=0.0.0.0 -client=0.0.0.0
  2. 2550fb171015d39dccad2b62379259337ee78d074536fd6d6e3383c12c71b113
  3. [root@worker_241 ~]#
  4. [root@worker_241 ~]# docker ps
  5. CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
  6. 2550fb171015 hashicorp/consul "docker-entrypoint.s…" 26 seconds ago Up 14 seconds 0.0.0.0:8300-8302->8300-8302/tcp, :::8300-8302->8300-8302/tcp, 8301-8302/udp, 0.0.0.0:8500->8500/tcp, :::8500->8500/tcp, 0.0.0.0:8600->8600/tcp, :::8600->8600/tcp, 8600/udp consul1

启动完第一个节点后,需要启动其他consul容器,加入到这个consul1,查看consul1ip地址,命令如下: 

  1. [root@worker_241 ~]# docker network ls
  2. NETWORK ID NAME DRIVER SCOPE
  3. 66d69474d739 bridge bridge local
  4. c2191211eabb docker_gwbridge bridge local
  5. 31616bf730aa host host local
  6. 1e0116a4c2da none null local
  7. [root@worker_241 ~]# docker inspect 66d69474d739
  8. [
  9. {
  10. "Name": "bridge",
  11. "Id": "66d69474d739b7833552f10f0d7c2cc204fd89874fbb9b322bdb6ccf8f8e88cd",
  12. "Created": "2023-11-25T20:06:24.898621409-08:00",
  13. "Scope": "local",
  14. "Driver": "bridge",
  15. "EnableIPv6": false,
  16. "IPAM": {
  17. "Driver": "default",
  18. "Options": null,
  19. "Config": [
  20. {
  21. "Subnet": "172.17.0.0/16",
  22. "Gateway": "172.17.0.1"
  23. }
  24. ]
  25. },
  26. "Internal": false,
  27. "Attachable": false,
  28. "Ingress": false,
  29. "ConfigFrom": {
  30. "Network": ""
  31. },
  32. "ConfigOnly": false,
  33. "Containers": {
  34. "2550fb171015d39dccad2b62379259337ee78d074536fd6d6e3383c12c71b113": {
  35. "Name": "consul1",
  36. "EndpointID": "870bf26516364ba1fecfcab8e41188c9366c53d4a774bdd69704ccfbe63a9a61",
  37. "MacAddress": "02:42:ac:11:00:02",
  38. "IPv4Address": "172.17.0.2/16",
  39. "IPv6Address": ""
  40. }
  41. },
  42. "Options": {
  43. "com.docker.network.bridge.default_bridge": "true",
  44. "com.docker.network.bridge.enable_icc": "true",
  45. "com.docker.network.bridge.enable_ip_masquerade": "true",
  46. "com.docker.network.bridge.host_binding_ipv4": "0.0.0.0",
  47. "com.docker.network.bridge.name": "docker0",
  48. "com.docker.network.driver.mtu": "1500"
  49. },
  50. "Labels": {}
  51. }
  52. ]

发现consul1的ip地址为:172.17.0.2

(3).启动第二个节点(端口8501),加入到 consul1

启动命令和linux搭建consul集群命令一致, -join 该ip为第一个个consul1节点ip地址(172.17.0.2)

docker run --name consul2 -d -p 8501:8500 hashicorp/consul agent -server -ui -bootstrap-expect=3 -bind=0.0.0.0 -client=0.0.0.0 -join 172.17.0.2
  1. [root@worker_241 ~]# docker run --name consul2 -d -p 8501:8500 hashicorp/consul agent -server -ui -bootstrap-expect=3 -bind=0.0.0.0 -client=0.0.0.0 -join 172.17.0.2
  2. 8d0cbaf78af0be8a8e81e95ccf63508b814dafee83870048ee74120f75e9bc09

 (3).启动第三个节点(端口8502),加入到 consul1

启动命令和linux搭建consul集群命令一致

docker run --name consul3 -d -p 8502:8500 hashicorp/consul agent -server -ui -bootstrap-expect=3 -bind=0.0.0.0 -client=0.0.0.0 -join 172.17.0.2
  1. [root@worker_241 ~]# docker run --name consul3 -d -p 8502:8500 hashicorp/consul agent -server -ui -bootstrap-expect=3 -bind=0.0.0.0 -client=0.0.0.0 -join 172.17.0.2
  2. 9e6e1b46f9caa2f8675c0c56b9e68fc7bca6c341f28b5f4ff12ba53a431e7463

(4).启动一个consule客户端(端口 8503 )加入到consul1

docker run --name consulClient1 -d -p 8503:8500 hashicorp/consul agent -ui -bind=0.0.0.0 -client=0.0.0.0 -join 172.17.0.2
  1. [root@worker_241 ~]# docker run --name consulClient1 -d -p 8503:8500 hashicorp/consul agent -ui -bind=0.0.0.0 -client=0.0.0.0 -join 172.17.0.2
  2. 44d7066b26dae726309e1c21a7bde4b31099258e728d175bbef7cb1dc7e40398

(5).查看consul

  1. docker ps
  2. docker exec -it consul1 consul members

  1. [root@worker_241 ~]# docker ps
  2. CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
  3. 44d7066b26da hashicorp/consul "docker-entrypoint.s…" 2 minutes ago Up 2 minutes 8300-8302/tcp, 8301-8302/udp, 8600/tcp, 8600/udp, 0.0.0.0:8503->8500/tcp, :::8503->8500/tcp consulClient1
  4. 9e6e1b46f9ca hashicorp/consul "docker-entrypoint.s…" 3 minutes ago Up 3 minutes 8300-8302/tcp, 8301-8302/udp, 8600/tcp, 8600/udp, 0.0.0.0:8502->8500/tcp, :::8502->8500/tcp consul3
  5. 8d0cbaf78af0 hashicorp/consul "docker-entrypoint.s…" 4 minutes ago Up 4 minutes 8300-8302/tcp, 8301-8302/udp, 8600/tcp, 8600/udp, 0.0.0.0:8501->8500/tcp, :::8501->8500/tcp consul2
  6. 2550fb171015 hashicorp/consul "docker-entrypoint.s…" 18 minutes ago Up 18 minutes 0.0.0.0:8300-8302->8300-8302/tcp, :::8300-8302->8300-8302/tcp, 8301-8302/udp, 0.0.0.0:8500->8500/tcp, :::8500->8500/tcp, 0.0.0.0:8600->8600/tcp, :::8600->8600/tcp, 8600/udp consul1

 也可以通过web访问:192.168.31.240:8500

 

好了,consul集群就搭建好了,这是在一台机器上搭建,如果并发量不是很大的微服务,完全可以在一台机器上操作(好处:通过bridge桥接方式,容器间可以相互通信,默认是在一个consul集群中,共享同一个网络),当然,如果并发量比较大,就需要把consul部署到多台服务器上,下面就来在多台机器上部署consul

二.Consul集群+Swarm集群部署微服务实战

1.在多台服务器上部署consul

(1).linux上面部署consul集群

参考[golang 微服务] 5. 微服务服务发现介绍,安装以及consul的使用,Consul集群 

 2.通过docker部署搭建Consul集群

可以通过docker run --net=host共享Network方式(共享物理机ip地址)来搭建,这样在物理机上运行consul,就不用暴露端口了,通过物理机ip相互通信,这里以192.168.31.117这台机器为例,命令如下:

docker run --net=host -e CONSUL_BIND_INTERFACE=ens33 -h=192.168.31.117 --name consul1 -v /consul_server/data:/consul/data consul agent -server -bootstrap-expect=3 -ui -bind=192.168.31.117 -client=0.0.0.0

        --net=host 共享Network方式(共享物理机ip地址)

        -e 常量配置: 

                CONSUL_BIND_INTERFACE=ens33 绑定的网卡

        -h 192.168.31.117 物理机ip

        --name consul1 consul容器名称

        -v 映射的数据卷

                /consul_server/data:/consul/data  把当前data数据目录映射到consul/data中

        consul 从consul镜像启动容器(也可以从自己下载的其他consul镜像启动,一般为consul官方镜像启动)

        agent -server 启动一个server服务端服务

        其他参数和上面讲解的一致

上面的命令运行后,会一值执行,想要在后台运行,命令如下:

nohup docker run --net=host -e CONSUL_BIND_INTERFACE=ens33 -h=192.168.31.117 --name consul1 -v /consul_server/data:/consul/data hashicorp/consul agent -server -bootstrap-expect=3 -ui -bind=192.168.31.117 -client=0.0.0.0 &

这样在192.168.31.117这台机器上就启动了一个consul容器服务了,它共享物理机ip,绑定了网卡,这样就可以通过ip访问这个consul容器

具体命令如下:

        这里使用hashicorp/consul这个镜像搭建consul容器

  1. [root@worker_117 ~]# docker pull hashicorp/consul
  2. Using default tag: latest
  3. latest: Pulling from hashicorp/consul
  4. 96526aa774ef: Pull complete
  5. ...
  6. Digest: sha256:712fe02d2f847b6a28f4834f3dd4095edb50f9eee136621575a1e837334aaf09
  7. Status: Downloaded newer image for hashicorp/consul:latest
  8. docker.io/hashicorp/consul:latest
  9. [root@worker_117 ~]# docker images
  10. REPOSITORY TAG IMAGE ID CREATED SIZE
  11. hashicorp/consul latest 48de899edccb 3 weeks ago 206MB
  12. [root@worker_117 ~]# nohup docker run --net=host -e CONSUL_BIND_INTERFACE=ens33 -h=192.168.31.117 --name consul1 -v /consul_server/data:/consul/data hashicorp/consul agent -server -bootstrap-expect=3 -ui -bind=192.168.31.117 -client=0.0.0.0 &
  13. [root@worker_117 ~]#
  14. [root@worker_117 ~]# docker ps
  15. CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
  16. d66621ff05c1 hashicorp/consul "docker-entrypoint.s…" 11 seconds ago Up 9 seconds consul1

这样就搭建好了一个consul,下面在其他几台机器上搭建consul,并加入192.168.31.117这台consul集群中:

  1. nohup docker run --net=host -e CONSUL_BIND_INTERFACE=ens33 -h=192.168.31.140 --name consul2 -v /consul_server/data:/consul/data hashicorp/consul agent -server -bootstrap-expect=3 -ui -bind=192.168.31.140 -client=0.0.0.0 -join 192.168.31.117 &
  2. nohup docker run --net=host -e CONSUL_BIND_INTERFACE=ens33 -h=192.168.31.81 --name consul3 -v /consul_server/data:/consul/data hashicorp/consul agent -server -bootstrap-expect=3 -ui -bind=192.168.31.81 -client=0.0.0.0 -join 192.168.31.117 &
  3. nohup docker run --net=host -e CONSUL_BIND_INTERFACE=ens33 -h=192.168.31.241 --name consul4 -v /consul_server/data:/consul/data hashicorp/consul agent -bind=192.168.31.241 -client=0.0.0.0 -join 192.168.31.117 &

192.168.31.140加入consul1集群 

  1. [root@worker_140 ~]# nohup docker run --net=host -e CONSUL_BIND_INTERFACE=ens33 -h=192.168.31.140 --name consul2 -v /consul_server/data:/consul/data hashicorp/consul agent -server -bootstrap-expect=3 -ui -bind=192.168.31.140 -client=0.0.0.0 -join 192.168.31.117 &
  2. [1] 10150
  3. [root@worker_140 ~]# docker ps
  4. CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
  5. 1e54ad577bce hashicorp/consul "docker-entrypoint.s…" 11 seconds ago Up 10 seconds consul2

192.168.31.81加入consul1集群 

  1. [root@manager_81 ~]# nohup docker run --net=host -e CONSUL_BIND_INTERFACE=ens33 -h=192.168.31.81 --name consul3 -v /consul_server/data:/consul/data hashicorp/consul agent -server -bootstrap-expect=3 -ui -bind=192.168.31.81 -client=0.0.0.0 -join 192.168.31.117 &
  2. [root@manager_81 ~]# docker ps
  3. CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
  4. fbf11320c18e hashicorp/consul "docker-entrypoint.s…" 2 minutes ago Up 2 minutes consul3

192.168.31.241作为客户端进行转发,加入consul1集群 

  1. [root@worker_241 ~]# nohup docker run --net=host -e CONSUL_BIND_INTERFACE=ens33 -h=192.168.31.241 --name consul4 -v /consul_server/data:/consul/data hashicorp/consul agent -bind=192.168.31.241 -client=0.0.0.0 -join 192.168.31.117 &
  2. [1] 17681
  3. [root@worker_241 ~]# docker ps
  4. CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
  5. d2b0e76b4a13 hashicorp/consul "docker-entrypoint.s…" 4 seconds ago Up 1 second consul4

可以在web上查看:

在http://192.168.31.140:8500/,http://192.168.31.117:8500/,http://192.168.31.81:8500/这几台机器上都可以查看

这样consul集群就通过docker部署好了,就可以通过物理机ip访问consul容器了,这几台机器就可以进行通信了 

下面就来搭建api服务网关,微服务集群,这一部分可以通过docker swarm来搭建 

3.通过docker swarm搭建微服务集群

(1).准备mysql 以及 redis相关数据库

这里可以找一台服务器进行部署,当然在线上可以使用云服务数据库,这里通过docker来部署

启动mysql

  1. docker run --name myMysql -p 3306:3306 -v
  2. /root/mysql/conf.d:/etc/mysql/conf.d -v /root/mysql/data:/var/lib/mysql -e
  3. MYSQL_ROOT_PASSWORD=123456 -d mysql

启动redis  

  1. docker run \
  2. -p 6379:6379 \
  3. --name redis \
  4. -v /docker/redis/redis.conf:/etc/redis/redis.conf \
  5. -v /docker/redis/data:/data \
  6. --restart=always \
  7. -d redis redis-server /etc/redis/redis.conf

 对上面命令详解:

  1. docker run \
  2. -p 6379:6379 \ docker与宿主机的端口映射
  3. --name redis \ redis容器的名字
  4. -v /docker/redis/redis.conf:/etc/redis/redis.conf \ 挂载redis.conf文件
  5. -v /docker/redis/data:/data \ 挂在redis的持久化数据
  6. --restart=always \ 设置redis容器随docker启动而自启动
  7. -d redis redis-server /etc/redis/redis.conf \ 指定redis在docker中的配置文件路径,后
  8. 台启动redis

(2).准备程序

所有需要部署微服务的服务器上进行下面的操作,这里以192.168.31.129,192.168.31.132,192.168.31.130这三台服务器来部署

1).打包项目

这里以前面Gin项目rbac微服务,captcha微服务为案例讲解,需要打包rbac微服务代码,captcha微服务代码,微服务客户端代码,具体打包方式见前面章节[Docker]六.Docker自动部署nodejs以及golang项目

 

把上面微服务,以及客户端代码打包后传到服务器上

注意:

        需传入打包好的文件以及需要的配置文件,比如:app.ini,statics,view等静态资源文件

这里以192.168.31.129,192.168.31.132,192.168.31.130这三台机器来部署微服务,把打包好的项目上传到这三台服务器上

在打包的时候,需要注意: 微服务中的app.ini 需要修改consul配置地址为上面consul客户端地址,mysql配置需要修改为自己搭建的mysql地址

2).对打包好的文件进行压缩  
 3).配置Dockerfile
微服务captcha

captcha_Dockerfile

  1. FROM centos:centos7
  2. ADD /wwwroot/captcha.tar.gz /root
  3. WORKDIR /root
  4. RUN chmod -R 777 captcha
  5. WORKDIR /root/captcha
  6. ENTRYPOINT ["./captcha"]
微服务rbac

rbac_Dockerfile

  1. FROM centos:centos7
  2. ADD /wwwroot/rbac.tar.gz /root
  3. WORKDIR /root
  4. RUN chmod -R 777 rbac
  5. WORKDIR /root/rbac
  6. ENTRYPOINT ["./rbac"]
ginshop

ginshop_Dockerfile

  1. FROM centos:centos7
  2. ADD /wwwroot/ginshop.tar.gz /root
  3. WORKDIR /root
  4. RUN chmod -R 777 ginshop
  5. WORKDIR /root/ginshop
  6. ENTRYPOINT ["./ginshop"]

4).在要部署的服务器上面build对应的镜像  
  1. docker build -f captcha_Dockerfile -t docker.io/captchamicro:latest .
  2. docker build -f rbac_Dockerfile -t docker.io/rbacmicro:latest .
  3. docker build -f ginshop_Dockerfile -t docker.io/ginshop:latest .

在三台服务器上执行了上面代码后,可以通过docker images查看生成的镜像文件 

(3).配置docker-compose.yml

  1. version: "3"
  2. services:
  3. redis: #配置redis,这里可以单独配置redis,把redis放到专门的一台服务器上
  4. image: redis
  5. restart: always
  6. deploy:
  7. replicas: 1 #副本数量
  8. captcha_micro: #验证码微服务
  9. image: captchamicro #镜像名称:通过项目打包并build成的验证码微服务镜像
  10. restart: always
  11. deploy:
  12. replicas: 6 #副本数量
  13. resources: #资源
  14. limits: #配置cpu
  15. cpus: "0.3" # 设置该容器最多只能使用 30% 的 CPU
  16. memory: 500M # 设置该容器最多只能使用 500M内存
  17. restart_policy: #定义容器重启策略, 用于代替 restart 参数
  18. condition: on-failure #只有当容器内部应用程序出现问题才会重启
  19. rbac_micro: #rbac微服务
  20. image: rbacmicro
  21. restart: always
  22. deploy:
  23. replicas: 6 #副本数量
  24. resources: #资源
  25. limits: #配置cpu
  26. cpus: "0.3" # 设置该容器最多只能使用 30% 的 CPU
  27. memory: 500M # 设置该容器最多只能使用 500M内存
  28. restart_policy: #定义容器重启策略, 用于代替 restart 参数
  29. condition: on-failure #只有当容器内部应用程序出现问题才会重启
  30. depends_on:
  31. - captcha_micro
  32. ginshop: #客户端微服务
  33. image: ginshop
  34. restart: always
  35. ports:
  36. - 8080:8080
  37. deploy:
  38. replicas: 6 #副本数量
  39. resources: #资源
  40. limits: #配置cpu
  41. cpus: "0.3" # 设置该容器最多只能使用 30% 的 CPU
  42. memory: 500M # 设置该容器最多只能使用 500M内存
  43. restart_policy: #定义容器重启策略, 用于代替 restart 参数
  44. condition: on-failure #只有当容器内部应用程序出现问题才会重启
  45. depends_on:
  46. - rbac_micro

 

(4).创建集群、部署微服务集群 

这里可以参考:[Docker]十.Docker Swarm讲解

  1. #在192.168.31.129上面部署集群,命令如下:
  2. docker swarm init --advertise-addr 192.168.31.129
  1. [root@manager_129 ~]# docker swarm init --advertise-addr 192.168.31.129
  2. Swarm initialized: current node (qu1ydd2t6occ8fo76rvaksidd) is now a manager.
  3. To add a worker to this swarm, run the following command:
  4. docker swarm join --token SWMTKN-1-6afkz1ub7m8q37cehxmjiirs6a0r25qt1hzf0no1c0xcny55qc-d3gtv0qcsuhivozbomp4d73ha 192.168.31.129:2377
  5. To add a manager to this swarm, run 'docker swarm join-token manager' and follow the instructions.
  6. [root@manager_1291 ~]

上述的docker swarm join 为加入集群的命令

docker swarm join --token SWMTKN-1-6afkz1ub7m8q37cehxmjiirs6a0r25qt1hzf0no1c0xcny55qc-d3gtv0qcsuhivozbomp4d73ha 192.168.31.129:2377

把上面命令依次在192.168.31.132,192.168.31.130上运行,这样这几个工作节点就加入了集群了,在管理节点上运行命令 docker node ls 就可以查看所有集群节点,当然,还可以多创建几个管理节点

(5).部署项目

在docker-composer.yml目录下运行以下命名,部署微服务,可以参考[Docker]十.Docker Swarm讲解

 项目就部署好了,可以通过192.168.31.129:8500查看swarm集群信息

(6).访问项目 

可以通过192.168.31.129:8080访问项目前端,通过192.168.31.129:8080/admin访问项目后台,

 

 

(7).配nginx负载均衡 

配置nginx赋值均衡,达到真正的负载均衡操作,见[Docker]十.Docker Swarm讲解

好了,Docker consul集群搭建、微服务部署,Consul集群+Swarm集群部署微服务项目就完成了,制作不已,请多多点赞

[上一节][Docker]十一.Docker Swarm集群raft算法,Docker Swarm Web管理工具 

关联章节:[golang gin框架] 45.Gin商城项目-微服务实战之后台Rbac微服务之角色权限关联 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/凡人多烦事01/article/detail/431450
推荐阅读
相关标签
  

闽ICP备14008679号