赞
踩
Dockerfile 是一个用来构建镜像的文本文件,文本内容包含了**一条条构建镜像所需的指令和说明**。
这里仅讲解如何运行 Dockerfile 文件来定制一个镜像,具体 Dockerfile 文件内指令详解,将在下一节中介绍,这里你只要知道构建的流程即可。
1、下面以定制一个 nginx 镜像(构建好的镜像内会有一个 /usr/share/nginx/html/index.html 文件)
在一个空目录下,新建一个名为 Dockerfile 文件,并在文件内添加以下内容:
FROM nginx
RUN echo '这是一个本地构建的nginx镜像' > /usr/share/nginx/html/index.html
2、FROM 和 RUN 指令的作用
FROM:定制的镜像都是基于 FROM 的镜像,这里的 nginx 就是定制需要的基础镜像。后续的操作都是基于 nginx。
RUN:用于执行后面跟着的命令行命令。有以下俩种格式:
shell 格式:
RUN <命令行命令>
# <命令行命令> 等同于,在终端操作的 shell 命令。
exec 格式:
RUN ["可执行文件", "参数1", "参数2"]
# 例如:
# RUN ["./test.php", "dev", "offline"] 等价于 RUN ./test.php dev offline
注意:Dockerfile 的指令每执行一次都会在 docker 上新建一层。一个接一个地将每条指令的结果提交给一个新的镜像;所以过多无意义的层,会造成镜像膨胀过大。上一条指令不会对下一条指令产生任何影响。例如:
FROM centos
RUN yum install wget
RUN wget -O redis.tar.gz "http://download.redis.io/releases/redis-5.0.3.tar.gz"
RUN tar -xvf redis.tar.gz
以上执行会创建 3 层镜像。可简化为以下格式:
FROM centos
RUN yum install wget \
&& wget -O redis.tar.gz "http://download.redis.io/releases/redis-5.0.3.tar.gz" \
&& tar -xvf redis.tar.gz
如上,以 && 符号连接命令,这样执行后,只会创建 1 层镜像。
在 Dockerfile 文件的存放目录下,执行构建动作。
以下示例,通过目录下的 Dockerfile 构建一个 nginx:v3(镜像名称:镜像标签)。
注:最后的 . 代表本次执行的上下文路径,下一节会介绍。
$ docker build -t nginx:v3 .
以上显示,说明已经构建成功。
上一节中,有提到指令最后一个 . 是上下文路径,那么什么是上下文路径呢?
$ docker build -t nginx:v3 .
上下文路径,是指 docker 在构建镜像,有时候想要使用到本机的文件(比如复制),docker build 命令得知这个路径后,会将路径下的所有内容打包。
解析:由于 docker 的运行模式是 C/S。我们本机是 C,docker 引擎是 S。实际的构建过程是在 docker 引擎下完成的,所以这个时候无法用到我们本机的文件。这就需要把我们本机的指定目录下的文件一起打包提供给 docker 引擎使用。
如果未说明最后一个参数,那么默认上下文路径就是 Dockerfile 所在的位置。
注意:上下文路径下不要放无用的文件,因为会一起打包发送给 docker 引擎,如果文件过多会造成过程缓慢。
请注意,每条指令都是独立运行的,并且会创建一个新映像,提交下一次使用——因此 RUN cd/tmp 不会对下一条指令产生任何影响。
用于执行在build期间在容器内执行后面跟着的命令行命令
[root@localhost nginx:v3]# docker build -t nginx:v3 . Sending build context to Docker daemon 2.048kB Step 1/2 : FROM nginx latest: Pulling from library/nginx 6ec7b7d162b2: Pull complete cb420a90068e: Pull complete 2766c0bf2b07: Pull complete e05167b6a99d: Pull complete 70ac9d795e79: Pull complete Digest: sha256:4cf620a5c81390ee209398ecc18e5fb9dd0f5155cd82adcbae532fec94006fb9 Status: Downloaded newer image for nginx:latest ---> ae2feff98a0c Step 2/2 : RUN echo '这是一个本地构建的nginx镜像' > /usr/share/nginx/html/index.html ---> Running in 7cad9d4dc9fa Removing intermediate container 7cad9d4dc9fa ---> 9975d5d75b31 Successfully built 9975d5d75b31 Successfully tagged nginx:v3
复制指令,从上下文目录中复制文件或者目录到容器里指定路径。
格式:
COPY [--chown=<user>:<group>] <源路径1>... <目标路径>
COPY [--chown=<user>:<group>] ["<源路径1>",... "<目标路径>"]
[–chown=:]:可选参数,用户改变复制到容器内文件的拥有者和属组。
<源路径>:源文件或者源目录,这里可以是通配符表达式,其通配符规则要满足 Go 的 filepath.Match 规则。例如:
COPY hom* /mydir/
COPY hom?.txt /mydir/
<目标路径>:容器内的指定路径,该路径不用事先建好,路径不存在的话,会自动创建。
ADD 指令和 COPY 的使用格式一致(同样需求下,官方推荐使用 COPY)。功能也类似,不同之处如下:
类似于 RUN 指令,用于运行程序,但二者运行的时间点不同:
作用:为启动的容器指定默认要运行的程序,程序运行结束,容器也就结束。CMD 指令指定的程序可被 docker run 命令行参数中指定要运行的程序所覆盖。
注意:如果 Dockerfile 中如果存在多个 CMD 指令,仅最后一个生效。
格式:
CMD <shell 命令>
CMD ["<可执行文件或命令>","<param1>","<param2>",...]
CMD ["<param1>","<param2>",...] # 该写法是为 ENTRYPOINT 指令指定的程序提供默认参数
推荐使用第二种格式,执行过程比较明确。第一种格式实际上在运行的过程中也会自动转换成第二种格式运行,并且默认可执行文件是 sh。
每个Dockfile只能有一条CMD命令,如果指定了多条,只有最后一条会执行。
类似于 CMD 指令,但其不会被 docker run 的命令行参数指定的指令所覆盖,而且这些命令行参数会被当作参数送给 ENTRYPOINT 指令指定的程序。
但是, 如果运行 docker run 时使用了 –entrypoint 选项,此选项的参数可当作要运行的程序覆盖 ENTRYPOINT 指令指定的程序。
优点:在执行 docker run 的时候可以指定 ENTRYPOINT 运行所需的参数。
注意:如果 Dockerfile 中如果存在多个 ENTRYPOINT 指令,仅最后一个生效。
格式:
ENTRYPOINT ["<executeable>","<param1>","<param2>",...]
可以搭配 CMD 命令使用:一般是变参才会使用 CMD ,这里的 CMD 等于是在给 ENTRYPOINT 传参
,以下示例会提到。
示例:
假设已通过 Dockerfile 构建了 nginx:test 镜像:
FROM nginx
ENTRYPOINT ["nginx", "-c"] # 定参
CMD ["/etc/nginx/nginx.conf"] # 变参
1、不传参运行
$ docker run nginx:test
容器内会默认运行以下命令,启动主进程。
nginx -c /etc/nginx/nginx.conf
2、传参运行
$ docker run nginx:test -c /etc/nginx/new.conf
容器内会默认运行以下命令,启动主进程(/etc/nginx/new.conf:假设容器内已有此文件)
nginx -c /etc/nginx/new.conf
设置环境变量,定义了环境变量,那么在后续的指令中,就可以使用这个环境变量。
格式:
ENV <key> <value>
ENV <key1>=<value1> <key2>=<value2>...
以下示例设置 NODE_VERSION = 7.2.0 , 在后续的指令中可以通过 $NODE_VERSION 引用:
ENV NODE_VERSION 7.2.0
RUN curl -SLO "https://nodejs.org/dist/v$NODE_VERSION/node-v$NODE_VERSION-linux-x64.tar.xz" \
&& curl -SLO "https://nodejs.org/dist/v$NODE_VERSION/SHASUMS256.txt.asc"
构建参数,与 ENV 作用一至。不过作用域不一样。ARG 设置的环境变量仅对 Dockerfile 内有效,也就是说只有 docker build 的过程中有效,构建好的镜像内不存在此环境变量。
构建命令 docker build 中可以用 --build-arg <参数名>=<值> 来覆盖。
格式:
ARG <参数名>[=<默认值>]
定义匿名数据卷。在启动容器时忘记挂载数据卷,会自动挂载到匿名卷。
作用:
格式:
VOLUME ["<路径1>", "<路径2>"...]
VOLUME <路径>
在启动容器 docker run 的时候,我们可以通过 -v 参数修改挂载点。
仅仅只是声明端口。
作用:
格式:
EXPOSE <端口1> [<端口2>...]
指定工作目录。用 WORKDIR 指定的工作目录,会在构建镜像的每一层中都存在。(WORKDIR 指定的工作目录,必须是提前创建好的)。
docker build 构建镜像过程中的,每一个 RUN 命令都是新建的一层。只有通过 WORKDIR 创建的目录才会一直存在。
格式:
WORKDIR <工作目录路径>
用于指定执行后续命令的用户和用户组,这边只是切换后续命令执行的用户(用户和用户组必须提前已经存在)。
格式:
USER <用户名>[:<用户组>]
用于指定某个程序或者指令来监控 docker 容器服务的运行状态。
格式:
HEALTHCHECK [选项] CMD <命令>:设置检查容器健康状况的命令
HEALTHCHECK NONE:如果基础镜像有健康检查指令,使用这行可以屏蔽掉其健康检查指令
HEALTHCHECK [选项] CMD <命令> : 这边 CMD 后面跟随的命令使用,可以参考 CMD 的用法。
用于延迟构建命令的执行。简单的说,就是 Dockerfile 里用 ONBUILD 指定的命令,在本次构建镜像的过程中不会执行(假设镜像为 test-build)。当有新的 Dockerfile 使用了之前构建的镜像 FROM test-build ,这是执行新镜像的 Dockerfile 构建时候,会执行 test-build 的 Dockerfile 里的 ONBUILD 指定的命令。
格式:
ONBUILD <其它指令>
-v /host_dir:/container_dir
-v /container_dir
-v dir_name/container_dir
–volumes-from list Mount volumes from the specified container(s)
容器默认启动模式为桥接: --net bridge
veth-pair技术: 是成对出现的一种虚拟网络设备,一端连接着协议栈,一端连接着彼此,数据从一端出,从另一端进。
–link list Add link to another containe(单向)
[root@localhost ~]# docker network create --help Usage: docker network create [OPTIONS] NETWORK Create a network Options: --attachable Enable manual container attachment --aux-address map Auxiliary IPv4 or IPv6 addresses used by Network driver (default map[]) --config-from string The network from which copying the configuration --config-only Create a configuration only network -d, --driver string Driver to manage the Network (default "bridge") --gateway strings IPv4 or IPv6 Gateway for the master subnet --ingress Create swarm routing-mesh network --internal Restrict external access to the network --ip-range strings Allocate container ip from a sub-range --ipam-driver string IP Address Management Driver (default "default") --ipam-opt map Set IPAM driver specific options (default map[]) --ipv6 Enable IPv6 networking --label list Set metadata on a network -o, --opt map Set driver specific options (default map[]) --scope string Control the network's scope --subnet strings Subnet in CIDR format that represents a network segment #创建了一个名为test-net的桥接网 [root@localhost ~]# docker network create -d bridge --subnet 172.18.0.0/16 --gateway 172.18.0.1 test-net #在宿主机上自动生成对应桥接网卡 [root@localhost ~]# ip addr 4: br-fbfcbd297c60: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default link/ether 02:42:70:d5:fd:b9 brd ff:ff:ff:ff:ff:ff inet 172.18.0.1/16 brd 172.18.255.255 scope global br-fbfcbd297c60 valid_lft forever preferred_lft forever inet6 fe80::42:70ff:fed5:fdb9/64 scope link valid_lft forever preferred_lft forever #查看网络元信息 [root@localhost ~]# docker network inspect test-net [ { "Name": "test-net", "Id": "fbfcbd297c600efcb4c326faef1c7b7f0ae9b61c3387b82392f1ee3b77e2037c", "Created": "2020-12-25T11:52:22.395327446+08:00", "Scope": "local", "Driver": "bridge", "EnableIPv6": false, "IPAM": { "Driver": "default", "Options": {}, "Config": [ { "Subnet": "172.18.0.0/16", "Gateway": "172.18.0.1" } ] }, "Internal": false, "Attachable": false, "Ingress": false, "ConfigFrom": { "Network": "" }, "ConfigOnly": false, "Containers": {}, "Options": {}, "Labels": {} } ] #启动一个容器并指定网络为test-net网络 [root@localhost ~]# docker run -itd --name centos3 --net test-net centos /bin/bash 217d8d42cec707a8dc855b73721bef818d86b1750780f3e74a5f611ab3adb9b0 #查看该容器的网络元信息 [root@localhost ~]# docker inspect 217 "NetworkSettings": { "Bridge": "", "SandboxID": "3f6b0432d8d2938d43a412b3c400ecef102bf7f4dd8446ebcaba401bfeb13e75", "HairpinMode": false, "LinkLocalIPv6Address": "", "LinkLocalIPv6PrefixLen": 0, "Ports": {}, "SandboxKey": "/var/run/docker/netns/3f6b0432d8d2", "SecondaryIPAddresses": null, "SecondaryIPv6Addresses": null, "EndpointID": "", "Gateway": "", "GlobalIPv6Address": "", "GlobalIPv6PrefixLen": 0, "IPAddress": "", "IPPrefixLen": 0, "IPv6Gateway": "", "MacAddress": "", "Networks": { "test-net": { "IPAMConfig": null, "Links": null, "Aliases": [ "217d8d42cec7" ], "NetworkID": "fbfcbd297c600efcb4c326faef1c7b7f0ae9b61c3387b82392f1ee3b77e2037c", "EndpointID": "eeea739d25bea19e2c3d1aef4beae9e963bd184500b1ad0677b855b17ce10b27", "Gateway": "172.18.0.1", "IPAddress": "172.18.0.2", "IPPrefixLen": 16, "IPv6Gateway": "", "GlobalIPv6Address": "", "GlobalIPv6PrefixLen": 0, "MacAddress": "02:42:ac:12:00:02", "DriverOpts": null } } }
[root@localhost ~]# docker network connect --help Usage: docker network connect [OPTIONS] NETWORK CONTAINER Connect a container to a network Options: --alias strings Add network-scoped alias for the container --ip string IPv4 address (e.g., 172.30.100.104) --ip6 string IPv6 address (e.g., 2001:db8::33) --link list Add link to another container --link-local-ip strings Add a link-local address for the container #将centos2链接到test-net网络 [root@localhost ~]# docker network connect test-net centos2 #centos2结果 "Networks": { "bridge": { "IPAMConfig": null, "Links": null, "Aliases": null, "NetworkID": "2f9b761a1c3d77457cd5ed0727f74d3056f1c010f0a6d8ae6bd055450950ecbd", "EndpointID": "c95f31a65be2c2ed44cb5feef7a8f36663016d0b16d047239fda472571786e92", "Gateway": "172.17.0.1", "IPAddress": "172.17.0.2", "IPPrefixLen": 16, "IPv6Gateway": "", "GlobalIPv6Address": "", "GlobalIPv6PrefixLen": 0, "MacAddress": "02:42:ac:11:00:02", "DriverOpts": null }, "test-net": { "IPAMConfig": {}, "Links": null, "Aliases": [ "bfea2e784d0c" ], "NetworkID": "fbfcbd297c600efcb4c326faef1c7b7f0ae9b61c3387b82392f1ee3b77e2037c", "EndpointID": "5f75a43a1e3f023da2ae83e5a8572a946bad7f93f4ed8c7657b543e70cf004ff", "Gateway": "172.18.0.1", "IPAddress": "172.18.0.3", "IPPrefixLen": 16, "IPv6Gateway": "", "GlobalIPv6Address": "", "GlobalIPv6PrefixLen": 0, "MacAddress": "02:42:ac:12:00:03", "DriverOpts": null } } }
Docker的轻量级,简洁,方便在集群部署体现地淋漓尽致,之前通过手动在三台服务器搭建,搞了两天才弄得下来(第一次),而且就单个节点的消耗都得300M+内存
基于手动配置创建
基于Docker配置创建
#自定义一个桥接模式的redis网段 docker network create redis -d bridge --subnet 172.38.0.0/16 --gateway 172.38.0.1 [root@localhost redis]# docker network inspect redis [ { "Name": "redis", "Id": "6a1eb42e7963b4f39977b7a68fd70d7f5d0207e0854057138a6660ccdbde53cb", "Created": "2020-12-28T00:46:24.667069632+08:00", "Scope": "local", "Driver": "bridge", "EnableIPv6": false, "IPAM": { "Driver": "default", "Options": {}, "Config": [ { "Subnet": "172.38.0.0/16", "Gateway": "172.38.0.1" } ] }, "Internal": false, "Attachable": false, "Ingress": false, "ConfigFrom": { "Network": "" }, "ConfigOnly": false, "Containers": {}, "Options": {}, "Labels": {} } ] #创建各个节点的data+conf目录,用于后期挂载和管理 for suffix in $(seq 1 6); \ do \ mkdir -p /mydata/redis/node-${suffix}/conf touch /mydata/redis/node-${suffix}/conf/redis.conf cat << EOF >/mydata/redis/node-${suffix}/conf/redis.conf port 6379 bind 0.0.0.0 cluster-enabled yes cluster-config-file nodes.conf cluster-node-timeout 5000 cluster-announce-ip 172.38.0.1${suffix} cluster-announce-port 6379 cluster-announce-bus-port 16379 appendonly yes EOF done #批次创建节点 for suffix in $(seq 1 6); \ do \ docker run -p 637${suffix}:6379 -p 1637${suffix}:16379 --name redis-${suffix} \ -v /mydata/redis/node-${suffix}/data:/data \ -v /mydata/redis/node-${suffix}/conf/redis.conf:/etc/redis/redis.conf \ -d --net redis --ip 172.38.0.1${suffix} redis:alpine redis-server /etc/redis/redis.conf done #进入节点1 docker exec -it reids-1 /bin/sh #在其中一个节点创建集群 redis-cli --cluster create 172.38.0.11:6379 172.38.0.12:6379 172.38.0.13:6379 172.38.0.14:6379 172.38.0.15:6379 172.38.0.16:6379 --cluster-replicas 1 #连接集群查看配置 redis-cli -c
[root@localhost redis]# for suffix in $(seq 1 6); \ > do \ > docker run -p 637${suffix}:6379 -p 1637${suffix}:16379 --name redis-${suffix} \ > -v /mydata/redis/node-${suffix}/data:/data \ > -v /mydata/redis/node-${suffix}/conf/redis.conf:/etc/redis/redis.conf \ > -d --net redis --ip 172.38.0.1${suffix} redis:alpine redis-server /etc/redis/redis.conf > done 980c9320b4798d04774fff10707f195f113fb176b4582e8d9712679ecc7f722b 5530f7f71cbfb96f12384148d7684ef53064f745ff0b26766165262f07b824c3 856b224a8960561d645029f12bf59831e574de99d95659fb297eeb79bba997b6 9730b04a2f839a5281e13b917ce714826aeea242a6225339b80eb98f67e63ecb 734a67a3c1a865f445899fdff228de065f4ab472b765413c53297b87a53b3184 83d6d81b9ece79bc2241c9517cfdd79870bfebae36bc59c76159776fb28d21ba [root@localhost redis]# docker ps CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES 83d6d81b9ece redis:alpine "docker-entrypoint.s…" 20 seconds ago Up 20 seconds 0.0.0.0:6376->6379/tcp, 0.0.0.0:16376->16379/tcp redis-6 734a67a3c1a8 redis:alpine "docker-entrypoint.s…" 20 seconds ago Up 20 seconds 0.0.0.0:6375->6379/tcp, 0.0.0.0:16375->16379/tcp redis-5 9730b04a2f83 redis:alpine "docker-entrypoint.s…" 21 seconds ago Up 20 seconds 0.0.0.0:6374->6379/tcp, 0.0.0.0:16374->16379/tcp redis-4 856b224a8960 redis:alpine "docker-entrypoint.s…" 21 seconds ago Up 21 seconds 0.0.0.0:6373->6379/tcp, 0.0.0.0:16373->16379/tcp redis-3 5530f7f71cbf redis:alpine "docker-entrypoint.s…" 22 seconds ago Up 21 seconds 0.0.0.0:6372->6379/tcp, 0.0.0.0:16372->16379/tcp redis-2 980c9320b479 redis:alpine "docker-entrypoint.s…" 23 seconds ago Up 22 seconds 0.0.0.0:6371->6379/tcp, 0.0.0.0:16371->16379/tcp redis-1 /data # redis-cli --cluster create 172.38.0.11:6379 172.38.0.12:6379 172.38.0.13:6379 172.38.0.14:6379 172.38.0.15:6379 172.38.0.16:6379 --cluster-replicas 1 >>> Performing hash slots allocation on 6 nodes... Master[0] -> Slots 0 - 5460 Master[1] -> Slots 5461 - 10922 Master[2] -> Slots 10923 - 16383 Adding replica 172.38.0.15:6379 to 172.38.0.11:6379 Adding replica 172.38.0.16:6379 to 172.38.0.12:6379 Adding replica 172.38.0.14:6379 to 172.38.0.13:6379 M: a8a0d5d4d6e6e6d6f03a5b049a6621ae4b392a86 172.38.0.11:6379 slots:[0-5460] (5461 slots) master M: 000fdfa0045b9f42df3ddbb80cde26f96a5efc7b 172.38.0.12:6379 slots:[5461-10922] (5462 slots) master M: 5ac6c6d3f13c6005f37b9905df46a7445787fefb 172.38.0.13:6379 slots:[10923-16383] (5461 slots) master S: 2285e2019451107634b3ba70087d3f1541241d8f 172.38.0.14:6379 replicates 5ac6c6d3f13c6005f37b9905df46a7445787fefb S: 3ef69a7395aa26b086c897e472c2ca355802ffd7 172.38.0.15:6379 replicates a8a0d5d4d6e6e6d6f03a5b049a6621ae4b392a86 S: 048e0ab5d3c410c64559e474bf88e4363af7bd8d 172.38.0.16:6379 replicates 000fdfa0045b9f42df3ddbb80cde26f96a5efc7b Can I set the above configuration? (type 'yes' to accept): yes >>> Nodes configuration updated >>> Assign a different config epoch to each node >>> Sending CLUSTER MEET messages to join the cluster Waiting for the cluster to join . >>> Performing Cluster Check (using node 172.38.0.11:6379) M: a8a0d5d4d6e6e6d6f03a5b049a6621ae4b392a86 172.38.0.11:6379 slots:[0-5460] (5461 slots) master 1 additional replica(s) S: 048e0ab5d3c410c64559e474bf88e4363af7bd8d 172.38.0.16:6379 slots: (0 slots) slave replicates 000fdfa0045b9f42df3ddbb80cde26f96a5efc7b S: 2285e2019451107634b3ba70087d3f1541241d8f 172.38.0.14:6379 slots: (0 slots) slave replicates 5ac6c6d3f13c6005f37b9905df46a7445787fefb S: 3ef69a7395aa26b086c897e472c2ca355802ffd7 172.38.0.15:6379 slots: (0 slots) slave replicates a8a0d5d4d6e6e6d6f03a5b049a6621ae4b392a86 M: 5ac6c6d3f13c6005f37b9905df46a7445787fefb 172.38.0.13:6379 slots:[10923-16383] (5461 slots) master 1 additional replica(s) M: 000fdfa0045b9f42df3ddbb80cde26f96a5efc7b 172.38.0.12:6379 slots:[5461-10922] (5462 slots) master 1 additional replica(s) [OK] All nodes agree about slots configuration. >>> Check for open slots... >>> Check slots coverage... [OK] All 16384 slots covered. #127.0.0.1:6379> cluster nodes 048e0ab5d3c410c64559e474bf88e4363af7bd8d 172.38.0.16:6379@16379 slave 000fdfa0045b9f42df3ddbb80cde26f96a5efc7b 0 1609088291392 2 connected 2285e2019451107634b3ba70087d3f1541241d8f 172.38.0.14:6379@16379 slave 5ac6c6d3f13c6005f37b9905df46a7445787fefb 0 1609088290388 3 connected 3ef69a7395aa26b086c897e472c2ca355802ffd7 172.38.0.15:6379@16379 slave a8a0d5d4d6e6e6d6f03a5b049a6621ae4b392a86 0 1609088290000 1 connected 5ac6c6d3f13c6005f37b9905df46a7445787fefb 172.38.0.13:6379@16379 master - 0 1609088291000 3 connected 10923-16383 000fdfa0045b9f42df3ddbb80cde26f96a5efc7b 172.38.0.12:6379@16379 master - 0 1609088290086 2 connected 5461-10922 a8a0d5d4d6e6e6d6f03a5b049a6621ae4b392a86 172.38.0.11:6379@16379 myself,master - 0 1609088289000 1 connected 0-5460 #主从切换测试 127.0.0.1:6379> set hello world OK 127.0.0.1:6379> get hello "world" 127.0.0.1:6379> exit [root@localhost redis]# docker ps CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES 83d6d81b9ece redis:alpine "docker-entrypoint.s…" 7 minutes ago Up 7 minutes 0.0.0.0:6376->6379/tcp, 0.0.0.0:16376->16379/tcp redis-6 734a67a3c1a8 redis:alpine "docker-entrypoint.s…" 7 minutes ago Up 7 minutes 0.0.0.0:6375->6379/tcp, 0.0.0.0:16375->16379/tcp redis-5 9730b04a2f83 redis:alpine "docker-entrypoint.s…" 7 minutes ago Up 7 minutes 0.0.0.0:6374->6379/tcp, 0.0.0.0:16374->16379/tcp redis-4 856b224a8960 redis:alpine "docker-entrypoint.s…" 7 minutes ago Up 7 minutes 0.0.0.0:6373->6379/tcp, 0.0.0.0:16373->16379/tcp redis-3 5530f7f71cbf redis:alpine "docker-entrypoint.s…" 7 minutes ago Up 7 minutes 0.0.0.0:6372->6379/tcp, 0.0.0.0:16372->16379/tcp redis-2 980c9320b479 redis:alpine "docker-entrypoint.s…" 7 minutes ago Up 7 minutes 0.0.0.0:6371->6379/tcp, 0.0.0.0:16371->16379/tcp redis-1 [root@localhost redis]# docker stop reids-1 Error response from daemon: No such container: reids-1 [root@localhost redis]# docker stop redis-1 redis-1 [root@localhost redis]# docker exec -it redis-2 /bin/sh /data # redis-cli -c 127.0.0.1:6379> get hello -> Redirected to slot [866] located at 172.38.0.15:6379 "world"
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。