赞
踩
# 安装mysql,启动数据卷,使得将docker内的数据保留进宿主机的磁盘中,设置mysql密码为123456
docker run \
--name mysql-master \
--privileged=true \
-e MYSQL_ROOT_PASSWORD=123456 \
-p 3307:3306 \
-v /app/mysql-master/log:/var/log/mysql \
-v /app/mysql-master/data:/var/lib/mysql \
-v /app/mysql-master/conf:/etc/mysql \
-d \
mysql:5.7
cd /app/mysql-master/conf
pwd
vim my.cnf
粘贴以下内容
[client] default_character_set=utf8 [mysql] default-character-set=utf8 [mysqld] ## 设置server-id,同一局域网中需要唯一 server-id=101 ## binlog-do-db=数据库名 //同步的数据库名称,如果不配置,表示同步所有的库 ## 指定不需要同步的数据库名称,忽略mysql库 binlog-ignore-db=mysql ## 开启二进制日志功能 log-bin=mall-mysql-bin ## 设置二进制日志使用内存大小(事务) binlog_cache_size=1M ## 设置使用的二进制日志格式(binlog格式:mixed,statement,row) ## ROW(行模式,记录所有变动的行,存入binlog,缺点:当遇到批量修改的sql时,容易导致日志sql过多) ## STATEMENT(记录每条修改的SQL,存入binlog,缺点:当遇到now()这些函数时,会导致主从出现数据误差) ## MIXED(实现ROW和STATMENT切换,缺点:无法识别@@的系统变量,比如@@hostname) binlog_format=mixed ## 二进制日志过期清理时间。默认值为0,表示不自动清理。 expire_logs_days=7 ## 跳过主从复制中遇到的所有错误或指定类型的错误,避免slave端复制中断。 ## 如:1026错误是指一些主键重复,1032错误是因为主从数据库数据不一致 slave_skip_errors=1062 collation_server=utf8_general_ci character_set_server=utf8
docker restart mysql-master
# 进入master容器 & 进入数据库
docker exec -it mysql-master /bin/bash
mysql -uroot -p123456
# 在主库中添加账号slave,密码为123456并赋予权限
create user 'slave'@'%' identified by '123456';
# 授予权限
grant replication slave,replication client on *.* to 'slave'@'%';
docker run \
--name mysql-slave \
--privileged=true \
-e MYSQL_ROOT_PASSWORD=123456 \
-p 3308:3306 \
-v /app/mysql-slave/log:/var/log/mysql \
-v /app/mysql-slave/data:/var/lib/mysql \
-v /app/mysql-slave/conf:/etc/mysql \
-d \
mysql:5.7
cd /app/mysql-slave/conf
pwd
vim my.cnf
粘贴以下内容
[client] default_character_set=utf8 [mysql] default-character-set=utf8 [mysqld] ## 设置server-id,同一局域网中需要唯一 server-id=102 ## binlog-do-db=数据库名 //同步的数据库名称,如果不配置,表示同步所有的库 ## 指定不需要同步的数据库名称,忽略mysql库 binlog-ignore-db=mysql ## 开启二进制日志功能,以备Slave作为其它数据库实例的Master时使用 log-bin=mall-mysql-slave1-bin ## 设置二进制日志使用内存大小(事务) binlog_cache_size=1M ## 设置使用的二进制日志格式(binlog格式:mixed,statement,row) ## ROW(行模式,记录所有变动的行,存入binlog,缺点:当遇到批量修改的sql时,容易导致日志sql过多) ## STATEMENT(记录每条修改的SQL,存入binlog,缺点:当遇到now()这些函数时,会导致主从出现数据误差) ## MIXED(实现ROW和STATMENT切换,缺点:无法识别@@的系统变量,比如@@hostname) binlog_format=mixed ## 二进制日志过期清理时间。默认值为0,表示不自动清理。 expire_logs_days=7 ## 跳过主从复制中遇到的所有错误或指定类型的错误,避免slave端复制中断。 ## 如:1026错误是指一些主键重复,1032错误是因为主从数据库数据不一致 slave_skip_errors=1062 ## relay_log配置中继日志 relay_log=mall-mysql-relay-bin ## log_slave_updates表示slave将复制事件写进自己的二进制文件 log_slave_updates=1 ## 这个配置项可以设置从库的只读模式,将其值设置为 1 表示只读,设置为 0 表示读写。 ## slave设置为只读(具有super权限的用户除外) read_only=1 collation_server=utf8_general_ci character_set_server=utf8
docker restart mysql-slave
show master status;
docker exec -it mysql-slave /bin/bash
mysql -uroot -p123456
记住File和Position,后面需要用到。
此时一定不要操作Master库,否则将会引起Master状态的变化,File和Position字段也将会进行变化。
查看主机ip(mysql-master)
docker inspect mysql-master
# 设置从库读取主库的服务器配置,分别为:主机IP、账号、密码、MASTER_LOG_FILE是上面查询的File,MASTER_LOG_POS是上面查询的Position
change master to master_host='宿主机ip',
master_user='slave',
master_password='123456',
master_port=3307,
master_log_file='mall-mysql-bin.00001',
master_log_pos=617,
master_connect_retry=30;
主从复制命令参数说明:
master_host : 主数据库的IP地址;
master_port : 主数据库的运行端口;
master_user : 在主数据库创建的用于同步数据的用户账号;
master_password : 在主数据库创建的用于同步数据的用户密码;
master_log_file : 指定从数据库要复制数据的日志文件,通过查看主数据的状态,获取File参数;
master_log_pos : 指定从数据库从哪个位置开始复制数据,通过查看主数据的状态,获取Position参数;
master_connect_retry : 连接失败重试的时间间隔,单位为秒。
change master to
master_host='192.168.229.133',
master_user='slave',
master_password='123456',
master_port=3307,
master_log_file='mall-mysql-bin.000001',
master_log_pos=617,
master_connect_retry=30;
使用start slave
开启主从复制过程后,如果 SlavelORunning
一直是Connecting
,则说明主从复制一直处于连接状态,这种情况一般是下面几种原因造成的,我们可以根据Last_IO_Error
提示予以排除。
1、网络不通: 检查ip、端口
2、密码不对 : 检查是否创建用于同步的用户和用户密码是否正确
3、pos不对 : 检查Master的Position正常启动后如下:
mysql创建从节点出现如下报错提示
ERROR 3021 (HY000): This operation cannot be performed with a running slave io thread;
run STOP SLAVE IO_THREAD FOR CHANNEL '' first.
ERROR 3021 (HY000):此操作不能在运行的从io线程中执行;运行停止slave
原因很简单,我们需要,先stop slave;先把slave stop掉 然后再使用change就可以了。
change完之后,记得start slave; 开启slave
因为之前已经创建过主节点,需停掉之前的配置 再重新配置
# 停止主从复制
stop slave;
# 重置主机配置
reset master;
# 再次配置主从即可,查看从节点状态
show slave status\G;
#查看主从同步状态[Slave_IO_Running列 和 Slave_SQL_Running列 是否开启主从同步]
show slave status \G;
Slave_lO_Running和Slave_SQL_Running是查看主从是否运行的关键字段,默认为NO,表示没有进行主从复制。
# 开启主从复制
start slave;
show slave status \G;
配置好my.conf启动成功后登录时异常:[ERROR] unknown variable ‘server-id=1’
将新增的所有主从配置往上移就解决了
执行重启命令systemctl restart mysqld;时异常:Failed to restart mysqld.service: Unit not found
MySQL在安装时没有创建名为mysqld的服务,cd /etc/init.d查看mysql映射的服务名。
我这里是mysql,所以修改重启命令为:systemctl restart mysql
在从库设置主库配置时异常:
ERROR 3021 (HY000): This operation cannot be performed with a running slave io thread; run STOP SLAVE IO_THREAD FOR CHANNEL '' first.
这是因为从库已经启动了主从复制,先执行STOP SLAVE;停止主从复制,再执行配置即可
MySQL8.0在从库设置主库配置时异常:
Last_IO_Error: error connecting to master 'slave@111.11.11.111:3306' - retry-time: 60 retries: 18 message: Authentication plugin 'caching_sha2_password' reported error: Authentication requires secure connection.
修改主库slave账号的密码加密方式:alter user ‘slave’@‘%’ identified with mysql_native_password by ‘123456’;
cluster(集群)模式-docker版哈希槽分区进行亿级数据存储
1~2亿条数据需要缓存,请问如何设计这个存储案例
单机单台100%不可能,肯定是分布式存储,用redis如何落地?
哈希取余分区
: 节点映射、数据变动、容易出错
2亿条记录就是2亿个k,v,我们单机不行必须要分布式多机,
假设有3台机器构成一个集群,用户每次读写操作都是根据公式 : hash(key)%N个机器台数,计算出哈希值,用来决定数据映射到哪一个节点上。
优点:
简单粗暴,直接有效,只需要预估好数据规划好节点,例如3台、8台、10台,就能保证一段时间的数据支撑。
使用Hash算法让固定的一部分请求落到同一台服务器上,这样每台服务器固定处理一部分请求(并维护这些请求的信息),起到负载均衡+分而治之的作用。
缺点:
原来规划好的节点,进行扩容或者缩容就比较麻烦了额,不管扩缩,每次数据变动导致节点有变动,映射关系需要重新进行计算,在服务器个数固定不变时没有问题,如果需要弹性扩容或故障停机的情况下,原来的取模公式就会发生变化:Hash(key)/3会变成Hash(key)/? 。此时地址经过取余运算的结果将发生很大变化,根据公式获取的服务器也会变得不可控。
某个redis机器宕机了,由于台数数量变化,会导致hash取余全部数据重新洗牌。
一致性哈希算法分区
一致性Hash算法背景
一致性哈希算法在1997年由麻省理工学院中提出的,设计目标是为了解决分布式缓存数据变动和映射问题
,某个机器宕机了,分母数量改变了,自然取余数不OK了。
提出一致性Hash解决方案。目的是当服务器个数发生变动时,尽量减少影响客户端到服务器的映射关系。
一致性哈希算法必然有个hash函数并按照算法产生hash值,这个算法的所有可能哈希值会构成一个全量集,
这个集合可以成为一个hash空间[0.,2^32-1],这个是一个线性空间,但是在算法中,我们通过适当的逻辑控制将它首尾相连(O=2^32),
这样让它逻辑上形成了一个环形空间。
它也是按照使用取模的方法,前面笔记介绍的节点取模法是对节点(服务器)的数量进行取模。而一致性Hash算法是对2^32取模,简单来说
,`一致性Hash算法将整个哈希值空间组织成一个虚拟的圆环`,如假设某哈希函数H的值空间为0-2^32-1(即哈希值是一个32位无符号整形),
整个哈希环如下图:整个空间`按顺时针方向组织`,圆环的正上方的点代表0,O点右侧的第一个点代表1,以此类推,2、3、4、……直到2^32-1,
也就是说0点左侧的第一个点代表2^32-1,0和2^32-1在零点中方向重合,我们把这个由2^32个点组成的圆环称为Hash环。
将集群中各个IP节点映射到环上的某一个位置。
将各个服务器使用Hash进行一个哈希,具体可以选择服务器的IP或主机名作为关键字进行哈希,这样每台机器就能确定其在哈希环上的位置。
假如4个节点NodeA、B、C、D,经过IP地址的哈希函数计算(hash(ip)),使用IP地址哈希后在环空间的位置如下:
当我们需要存储一个kv键值对时,首先计算key的hash值, hash(key)将这个key使用相同的函数Hash计算出哈希值并确定此数据在
环上的位置,`从此位置沿环顺时针“行走”`,第一台遇到的服务器就是其应该定位到的服务器,并将该键值对存储在该节点上。
如我们有Qbject A、Object B、Object C、Object D四个数据对象,经过哈希计算后,在环空间上的位置如下:根据一致性Hash算法
,数据A会被定为到Node A上,B被定为到Node B上,C被定为到Node C上,D被定为到Node D上。
容错性
假设Node C宕机,可以看到此时对象A、B、D不会受到影响,只有C对象被重定位到Node D。
一般的,在一致性Hash算法中,如果一台服务器不可用,则`受影响的数据仅仅是此服务器到其环空间中前一台服务器
(即沿着逆时针方向行走遇到的第一台服务器)之间数据`,其它不会受到影响。
简单说,就是C挂了,受到影响的只是B、C之间的数据,并且这些数据会转移到D进行存储。
扩展性
数据量增加了,需要增加一台节点Node X,X的位置在A和B之间,那收到影响的也就是A到X之间的数据,重新把A到X的数据录入到X上即可,
不会导致hash取余全部数据重新洗牌。
数据倾斜
问题`Hash环的数据倾斜问题`
一致性Hash算法在服务`节点太少`时,容易因为节点分布不均匀而造成`数据倾斜`(被缓存的对象大部分集中缓存在某一台服务器上)问题,
例如系统中只有两台服务器:
为了在节点数目发生改变时尽可能少的迁移数据
将所有的存储节点排列在收尾相接的Hash环上,每个key在计算Hash后会`顺时针`找到临近的存储节点存放。
而当有节点加入或退出时仅影响该节点在Hash环上`顺时针相邻的后续节点。`
`优点`
加入和删除节点只影响哈希环中顺时针方向的相邻的节点,对其他节点无影响。
`缺点`
数据的分布和节点的位置有关,因为这些节点不是均匀的分布在哈希环上的,所以数据在进行存储时达不到均匀分布的效果。
为了解决一致性哈希算法的`数据倾斜问题`,哈希槽实质就是一个数组,数组[0,2^14-1]形成hash slot空间。
`能干什么`
解决均匀分配的问题,`在数据和节点之间又加入了一层,把这层称为哈希槽(slot),用于管理数据和节点之间的关系,`
现在就相当于节点上放的是槽,槽里放的是数据。
槽解决的是粒度问题,相当于把粒度变大了,这样便于数据移动。
哈希解决的是映射问题,使用key的哈希值来计算所在的槽,便于数据分配。
`多少个hash槽`
一个集群只能有16384个槽,编号0-16383(0-2^14-1)。`这些槽会分配给集群中的所有主节点`,分配策略没有要求。可以指定哪些编号的槽分配给
哪个主节点。集群会记录节点和槽的对应关系。解决了节点和槽的关系后,接下来就需要对key求哈希值,然后对16384取余,余数是几key就落入对
应的槽里。slot =CRC16(key)% 16384。以槽为单位移动数据,因为槽的数目是固定的,处理起来比较容易,这样数据移动问题就解决了。
systemctl start docker
systemctl start docker
命令说明
docker run \ # 创建并运行docker 容器实例
--name mr \ # 给容器起个名称
--privileged=true \ # Docker会赋予容器几乎与主机相同的权限,即获取宿主机root用户权限
--appendonly yes \ # 开启AOF持久化功能
-v /app/redis/redis.conf:/etc/redis/redis.conf \ #容器卷,宿主机地址:docker容器内部地址 redis配置文件挂载
-v /app/redis/data:/data \ #redis数据文件挂载
--net host \ # 使用宿主机的ip和端口,指定网络类型为host,即与宿主机使用同一网络,默认
-d redis:6.0.8 \ # 后台运行 redis镜像和版本号
redis-server /etc/redis/redis.conf \ #运行容器 并使用配置文件启动容器内的 redis-server
--cluster-enabled yes \ # 是否开启redis集群
--port 6386 \ # redis端口号
# -p 6380:6379 \ #宿主机端口号:容器端口 端口映射
# --requirepass 123456 设置密码 (如果你是通过docker 容器内部连接的话,就随意,可设可不设。但是如果想向外开放的话,一定要设置,不然容易中病毒)
docker run -d --name redis-node-1 --net host --privileged=true -v /app/share/redis-node-1:/data redis:6.0.8 redis-server --cluster-enabled yes --appendonly yes --port 6381
docker run -d --name redis-node-2 --net host --privileged=true -v /app/share/redis-node-2:/data redis:6.0.8 redis-server --cluster-enabled yes --appendonly yes --port 6382
docker run -d --name redis-node-3 --net host --privileged=true -v /app/share/redis-node-3:/data redis:6.0.8 redis-server --cluster-enabled yes --appendonly yes --port 6383
docker run -d --name redis-node-4 --net host --privileged=true -v /app/share/redis-node-4:/data redis:6.0.8 redis-server --cluster-enabled yes --appendonly yes --port 6384
docker run -d --name redis-node-5 --net host --privileged=true -v /app/share/redis-node-5:/data redis:6.0.8 redis-server --cluster-enabled yes --appendonly yes --port 6385
docker run -d --name redis-node-6 --net host --privileged=true -v /app/share/redis-node-6:/data redis:6.0.8 redis-server --cluster-enabled yes --appendonly yes --port 6386
docker exec -it redis-node-1 /bin/bash
ifconfig
注意,进入docker容器后才能执行一下命令,且注意自己的真实IP地址
redis-cli \
--cluster create \
192.168.229.133:6381 \
192.168.229.133:6382 \
192.168.229.133:6383 \
192.168.229.133:6384 \
192.168.229.133:6385 \
192.168.229.133:6386 \
--cluster-replicas 1
# -a 000415 验证密码
--cluster create
: 构建集群--cluster-replicas 1
:表示为每个master创建一个slave节点-a 000415
:表示设置的密码
集群状态
# 查看集群信息
cluster info
# 本集群有哪些节点
cluster nodes
本次实际主从节点对应情况
主服务器Master | 从服务器Slave |
---|---|
6381 | 6384 |
6382 | 6385 |
6383 | 6386 |
# 启动1机构成的集群并通过exec进入
docker exec -it redis-node-1 /bin/bash
# 对6381新增两个key
redis-cli -p 6381
# 防止路由失效加参数-c并新增两个key
redis-cli -p 6381 -c
# 查看集群信息
redis-cli --cluster check 192.168.229.133:6381
docker stop redis-node-1
# 先开启6381
docker restart redis-node-1
# 在停止6384
docker stop redis-node-4
# 再开启6384
docker restart redis-node-4
# 主从机器分配情况以实际情况为准
自己ip
:6381】redis-cli --cluster check 自己ip
:6381
redis-cli --cluster check 192.168.229.133:6381
新建6387、6388两个节点+新建后启动+查看是否8节点
进入6387容器实例内部--docker exec -it redis-node-7 /bin/bash
将新增的6387节点(空槽号)作为master节点加入原集群
检查集群情况第1次
重新分派槽号
检查集群情况第2次
为主节点6387分配从节点6388
检查集群情况第3次
6387、6388
两个节点+新建后启动+查看是否8节点docker run -d --name redis-node-7 --net host --privileged=true -v /app/share/redis-node-7:/data redis:6.0.8 redis-server --cluster-enabled yes --appendonly yes --port 6387
docker run -d --name redis-node-8 --net host --privileged=true -v /app/share/redis-node-8:/data redis:6.0.8 redis-server --cluster-enabled yes --appendonly yes --port 6388
6387
容器实例内部–docker exec -it redis-node-7 /bin/bash
docker exec -it redis-node-7 /bin/bash
6387
节点【空槽号】作为master节点加入原集群将新增的6387作为master节点加入集群
redis-cli --cluster add-node 自己实际IP地址:6387 自己实际IP地址:6381
redis-cli --cluster add-node 192.168.229.133:6387 192.168.229.133:6381
6387就是将要作为master新增节点
6381就是原来集群节点里面的领路人,相当于6387拜拜6381的码头从而找到组织加入集群
# 重新分派槽号
redis-cli --cluster reshard 192.168.229.133:6381
redis-cli --cluster check 192.168.229.133:6381
槽号分派说明:为什么6387是3个新的区间,以前的还是连续?
重新分配成本太高,所以前3家各自匀出来一部分,从6381/6382/6383三个旧节点分别匀出1364个坑位给新节点6387
命令:
redis-cli --cluster
add-node
ip:新slave端口 ip:新master端口 --cluster-slave --cluster-master-id 新主机节点ID
265b4d87bf36015ff8e491a2994753c590ee3d85 -------这个是6387的编号,按照自己实际情况
redis-cli --cluster add-node 192.168.229.133:6388 192.168.229.133:6387 \
--cluster-slave --cluster-master-id 265b4d87bf36015ff8e491a2994753c590ee3d85
redis-cli --cluster check 192.168.229.133:6387
# 目的:6387和6388下线 # 检查集群情况1获得6388的节点ID redis-cli --cluster check 192.168.229.133:6382 ad001acdd52a4484c63c8c6c8d3c9f0de173cd4b # 将6388删除--从集群中将4号从节点6388删除 redis-cli --cluster del-node 192.168.229.133:6388 ad001acdd52a4484c63c8c6c8d3c9f0de173cd4b redis-cli --cluster check 192.168.229.133:6382 # 将6387的槽号清空,重新分配,本例将清出来的槽号都给6381 redis-cli --cluster reshard 192.168.229.133:6381 4096 1ce24a697196e2f225204fa664d65d7800b07d06 ---6381槽号ID 265b4d87bf36015ff8e491a2994753c590ee3d85 ---6387槽号ID done # 检查集群情况第二次 redis-cli --cluster check 192.168.229.133:6381 4096个槽位都给了6381,它变成了8192个槽位,相当于全部都给6381;不然要输入3次,一锅端 # 将6387删除 redis-cli --cluster del-node ip:从机端口 6387节点ID redis-cli --cluster del-node 192.168.229.133:6387 265b4d87bf36015ff8e491a2994753c590ee3d85 # 检查集群情况第三次 redis-cli --cluster check 192.168.229.133:6381
redis-cli --cluster check 192.168.229.133:6382
ad001acdd52a4484c63c8c6c8d3c9f0de173cd4b
命令:redis-cli --cluster del-node
ip:从机端口 从机6388节点ID
redis-cli --cluster del-node 192.168.229.133:6388 ad001acdd52a4484c63c8c6c8d3c9f0de173cd4b
redis-cli --cluster check 192.168.229.133:6382
redis-cli --cluster reshard 192.168.229.133:6381
4096
1ce24a697196e2f225204fa664d65d7800b07d06 ---6381槽号ID
265b4d87bf36015ff8e491a2994753c590ee3d85 ---6387槽号ID
done
redis-cli --cluster check 192.168.229.133:6381
4096个槽位都给了6381,它变成了8192个槽位,相当于全部都给6381;不然要输入3次,一锅端
命令:redis-cli --cluster del-node ip:从机端口 6387节点ID
redis-cli --cluster del-node ip:从机端口 6387节点ID
redis-cli --cluster del-node 192.168.229.133:6387 265b4d87bf36015ff8e491a2994753c590ee3d85
dockerfile是用来构建Docker镜像的文本文件,是由一条条构建镜像所需的指令和参数构成的脚本。
官网:https://docs.docker.com/engine/reference/builder/
构建三步骤:
编写Dockerfile文件
docker build 命令构建镜像
docker run 依镜像运行容器实例
FROM scratch
ADD centos-7-x86_64-docker.tar.xz /
LABEL \
org.label-schema.schema-version="1.0" \
org.label-schema.name="CentOS Base Image" \
org.label-schema.vendor="CentOS" \
org.label-schema.license="GPLv2" \
org.label-schema.build-date="20201113" \
org.opencontainers.image.title="CentOS Base Image" \
org.opencontainers.image.vendor="CentOS" \
org.opencontainers.image.licenses="GPL-2.0-only" \
org.opencontainers.image.created="2020-11-13 00:00:00+00:00"
CMD ["/bin/bash"]
镜像是将应用程序及其需要的系统函数库、环境、配置、依赖打包而成。
我们以MySQL为例,来看看镜像的组成结构:
简单来说,镜像就是在系统函数库、运行环境基础上,添加应用程序文件、配置文件、依赖文件等组合,然后编写好启动脚本打包在一起形成的文件。
1:每条保留字指令都必须为大写字母且后面要跟随至少一个参数
2:指令按照从上到下,顺序执行
3: #表示注释
4:每条指令都会创建一个新的镜像层并对镜像进行提交
(1) docker从基础镜像运行一个容器
(2)执行一条指令并对容器作出修改
(3)执行类似docker commit的操作提交一个新的镜像层
(4) docker再基于刚提交的镜像运行一个新容器
(5)执行dockerfile中的下一条指令直到所有指令都执行完成
从应用软件的角度来看,Dockerfile、Docker镜像与Docker容器分别代表软件的三个不同阶段:
1 Dockerfile,需要定义一个Dockerfile,Dockerfile定义了进程需要的一切东西。
Dockerile涉及的内容包括执行代码或者是文件、环境变量、依赖包、运行时环境、动态链接库、操作系统的发行版、服务进程和内核进程(当应用进程需要和系统服务和内核进程打交道,这时需要考虑如何设计namespace的权限控制)等等;
2 Docker镜像,在用Dockerfle定义一个文件之后,docker buid时会产生一个Docker镜像,当运行Docker镜像时会真正开始提供服务;
3 Docker容器,容器是直接提供服务的。
参考tomcat8的dockerfile入门:https://github.com/docker-library/tomcat
Dockerfile就是一个文本文件,其中包含一个个的指令(Instruction),用指令来说明要执行什么操作来构建镜像。每一个指令都会形成一层Layer。
Dockerfile的第一条必须是FROM。指定一个已经存在的基础镜像作为模板,表示新镜像是基于哪个镜像构建的
例如:FROM centos
指定新镜像的创建者名字和邮箱
例如:MAINTAINER bulut<bulut123@163.com>
新镜像构建时在容器上运行的指令。RUN在docker build
时运行。
shell格式:RUN <命令行命令>
RUN <命令行命令>
等同于,在终端操作的shell命令。
例如:
RUN yum -y install vim
exec格式:RUN [“可执行文件”, “参数1”, “参数2”]
例如:
RUN ["./test.php", "param1", "param2"],等同于RUN ./test.php param1 param2
RUN ["./test.php", "dev", "offline"],等同于RUN ./test.php dev offline
EXPOSE 8080
当容器运行时,通过docker exec -it 容器ID bash
进入容器的工作目录
ENV MY_PATH /app/test
这个环境变量可以在后续的任何RUN指令中使用,这就如同在命令前面指定了环境变量前缀一样;
也可以在其它指令中直接使用这些环境变量,比如 : WORKDIR $MY_PATH
例如定义了ENV MY_WORKDIR /app
,则可以这样定义WORKDIR:WORKDIR $MY_WORKDIR
例如定义了ENV JAVA_HOME /app/java
,则通过新镜像启动的容器中,可以执行命令echo $JAVA_HOME
ENV CATALINA_HOME /usr/local/tomcat
ENV PATH $CATALINA_HOME/bin:$PATH
RUN mkdir -p "$CATALINA_HOME"
WORKDIR $CATALINA_HOME
ADD centos-6-docker.tar.xz /
类似ADD,拷贝文件和目录到镜像中。
将从构建上下文目录中 <源路径> 的文件/目录复制到新的一层的镜像内的 <目标路径> 位置
COPY src dest
COPY ["src" "dest"]
<src源路径>:源文件或者源目录
<dest目标路径>:容器内的指定路径,该路径不用事先建好,会自动创建
定义容器卷,和参数-v
一样
# 将mycat的配置文件的地址暴露出映射地址,启动时直接映射宿主机的文件夹VOLUME /usr/local/mycat
指定通过新镜像启动容器时,需要执行的指令。CMD在docker run
时运行。
CMD
指令的格式和RUN
相似,语法有两种:
shell格式
: CMD <命令>exec格式
: CMD [“可执行文件”, “参数1”, “参数2”, …]ENTRYPOINT
指令后,用CMD
指定具体的参数。但是只有最后一个有效。CMD会被docker run之后的参数替换。
docker run
后面指定了容器运行的命令,则CMD指令无效,CMD会被docker run
之后的参数替换。EXPOSE 8080
CMD ["catalina.sh", "run"]
docker run
时运行。docker build
时运行。指定通过新镜像启动容器时,需要执行的指令。ENTRYPOINT在docker run
时运行
ENTRYPOINT也是用来指定一个容器启动时要运行的命令
类似于CMD指令,但是
ENTRYPOINT不会被docker run后面的命令覆盖
,而且这些命令行参数会被当作参数送给 ENTRYPOINT 指令指定的程序
命令格式:
ENTRYPOINT ["<excuteable>","<param1>","<param2>",...]
ENTRYPOINT可以和CMD一起用,一般是变参
才会使用CMD,这里的CMD等于是在给ENTRYPOINT传参。
当指定了ENTRYPOINT后,CMD的含义就发生了变化,不再是直接运行其命令而是将CMD的内容作为参数传递给ENTRYPOINT指
令,他两个组合会变成 <ENTRYPOINT> "<CMD>"
例如:通过如下Dockerfile构建nginx:test
镜像
FROM nginx
ENTRYPOINT ["nginx", "-c"] # 定参
CMD ["/etc/nginx/nginx.conf"] # 变参
效果如下
是否传参 | 按照dockerfile编写执行 | docker run传参运行 |
---|---|---|
Docker run命令 | docker run -nginx:test | docker run nginx:test - c /etc/nginx/new.conf |
衍生出来的实际命令 | nginx -c /etc/nginx/nginx.conf | nginx -c /etc/nginx/new.conf |
# dockerfile01
FROM centos
CMD ["ls", "-a"]
docker bulid -f dockerfile01 -t cmd:1.0 .
docker run 镜像id
# 会执行ls -a命令
# 如果执行docker run cmd:1.0 -l, 本来是想执行ls -al,但是 CMD命令会被-l所替代,由于没有-l命令,所以会报错
# dockerfile02
FROM centos
ENTRYPOINT ["ls", "-a"]
docker bulid -f dockerfile01 -t cmd:2.0 .
docker run 镜像id
# 会执行ls -a命令
# 如果执行docker run cmd:2.0 -l, 执行正常,命令为ls -al
BUILD | Both | RUN |
---|---|---|
FROM | WORKDIR | CMD |
MAINTAINER | USER | ENV |
COPY | EXPOSE | |
ADD | VOLUME | |
RUN | ENTRYPOINT | |
ONBUILD | ||
.dockerignore |
FROM: 表示基础镜像,就是我们的镜像从这里开始构建m
MAINTAINER: 表示维护者信息,就是这个镜像是谁创建的,一般需要写姓名和邮箱
RUN:表示镜像构建时需要运行的命令
ADD: 表示为了构建镜像需要添加的压缩等文件,例如要构建tomcat镜像,那么肯定要将tomcat压缩包放进去
WORKDIR: 表示镜像的工作目录
VOLUME: 表示挂载数据卷的目录位置,如果没有设置,就需要在运行run命令时通过-v进行设置
EXPOSE: 表示要暴露的端口,如果没有设置,就需要在运行run命令时通过-p进行设置
CMD:指定容器启动时需要运行的命令,只有最后一个会生效,可以被替代
ENTRYPOINT: 指定容器启动时需要运行的命令,可以追加命令
ONBUILD:当创建一个被继承(--volumes-from)的dockerfile时,就会运行这个指令,属于触发指令
COPY:类似ADD,将文件拷贝到镜像中
ENV:构建的时候设置环境变量
docker search centos
# 建议下载8版本以下的
# 从官方仓库拉取最新的 CentOS 7 镜像作为基础镜像
docker pull centos:7
docker images centos:7
docker run -it eeb6ee3f44bd /bin/bash
下载地址:https://www.oracle.com/java/technologies/downloads/#java8
Dockerfile
FROM centos:7 MAINTAINER dy<dy@163.com> ENV MYPATH /usr/local WORKDIR $MYPATH RUN yum install -y yum-utils # 安装vim编辑器 RUN yum -y install vim # 安装ifconfig命令查看网络IP RUN yum -y install net-tools # 安装java8 及 lib 库 RUN yum -y install glibc.i686 RUN mkdir /usr/local/java # ADD 是相对路径jar,把jdk-8u391-linux-x64.tar.gz添加到容器中,安装包必须要和Dockerfile文件在同一位置 ADD jdk-8u391-linux-x64.tar.gz /usr/local/java # 配置java环境变量 ENV JAVA_HOME /usr/local/java/jdk1.8.0_391 ENV JRE_HOME $JAVA_HOME/jre ENV CLASSPATH $JAVA_HOME/lib/dt.tar:$JAVA_HOME/lib/tools.jar$JRE_HOME/lib:$CLASSPATH ENV PATH $JAVA_HOME/bin/:$PATH EXPOSE 80 CMD echo $PATH CMD echo "success--------------------ok" CMD /bin/bash
参数说明:
# -t:是target的缩写
docker build -t 新镜像名字:TAG .
docker build -t mycentosjava8:1.1 .
# 注意:TAG后面有个空格,有个点
# 最后的小数点:就表明是当前目录。
docker build -f /app/myfile/Dockerfile -t mycentosjava8:1.1 .
-f:后面跟随的是Dockerfile 文件
-t :后面跟随的镜像名和版本号。
run -it 39ad01e4fa5e /bin/bash
run -it 39ad01e4fa5e /bin/bash
在学习使用 docker 技术过程中,基于 centos 镜像自定义新的镜像,其中基础镜像 centos 需要提前安装好 vim
和 net-tools
,然而在刚开始通过yum -y install vim
安装 vim 时,便出现了错误提示信息:
Error: Failed to download metadata for repo ‘appstream‘: Cannot prepare internal mirrorlist
[root@192 myfile]# docker build -t centosjava8:1.1 . [+] Building 60.9s (7/11) docker:default => [internal] load build definition from Dockerfile 0.0s => => transferring dockerfile: 836B 0.0s => [internal] load .dockerignore 0.0s => => transferring context: 2B 0.0s => [internal] load metadata for docker.io/library/centos:latest 0.0s => [1/7] FROM docker.io/library/centos 0.0s => [internal] load build context 0.0s => => transferring context: 107B 0.0s => CACHED [2/7] WORKDIR /usr/local 0.0s => ERROR [3/7] RUN yum -y install vim 60.9s ------ > [3/7] RUN yum -y install vim: 60.78 CentOS Linux 8 - AppStream 0.0 B/s | 0 B 01:00 60.78 Errors during downloading metadata for repository 'appstream': 60.78 - Curl error (6): Couldn't resolve host name for http://mirrorlist.centos.org/?release=8&arch=x86_64&repo=AppStream&infra=container [Could not resolve host: mirrorlist.centos.org] 60.79 Error: Failed to download metadata for repo 'appstream': Cannot prepare internal mirrorlist: Curl error (6): Couldn't resolve host name for http://mirrorlist.centos.org/?release=8&arch=x86_64&repo=AppStream&infra=container [Could not resolve host: mirrorlist.centos.org] ------ Dockerfile:8 -------------------- 6 | 7 | # 安装vim编辑器 8 | >>> RUN yum -y install vim 9 | # 安装ifconfig命令查看网络IP 10 | RUN yum -y install net-tools -------------------- ERROR: failed to solve: process "/bin/sh -c yum -y install vim" did not complete successfully: exit code: 1
1️⃣上面的报错信息意思是,从仓库 ‘appstream’ 下载元数据失败:由于镜像列表中没有 URL,不能准备内部镜像列表。
2️⃣ 问题分析
:
3️⃣ 第一种可能的情况便是网络连接问题。检查是否可以连接外部网络,可以使用 ping baidu.com 查看是否有丢包情况。如果丢包,则进一步检查网络连接是否正常;如果没有丢包,继续阅读下文
4️⃣那么第二种情况,便是 CentOS 已经停止维护的问题。2020 年 12 月 8 号,CentOS 官方宣布了停止维护 CentOS Linux 的计划,并推出了 CentOS Stream 项目,CentOS Linux 8 作为 RHEL 8 的复刻版本,生命周期缩短,于 2021 年 12 月 31 日停止更新并停止维护(EOL),更多的信息可以查看 CentOS 官方公告。如果需要更新 CentOS,需要将镜像从 mirror.centos.org 更改为 vault.centos.org
5️⃣报错信息
那么针对上面提到的第二种情况,给出的解决方法如下:
首先,进入到 yum 的 repos 目录
cd /etc/yum.repos.d/
其次,修改 centos 镜像内容,需要将镜像从 mirror.centos.org 更改为 vault.centos.org
sed -i 's/mirrorlist/#mirrorlist/g' /etc/yum.repos.d/CentOS-*
sed -i 's|#baseurl=http://mirror.centos.org|baseurl=http://vault.centos.org|g' /etc/yum.repos.d/CentOS-*
https://vault.centos.org/centos/8/AppStream/x86_64/os/repodata/
然后,生成缓存更新(第一次更新,速度稍微有点慢,耐心等待 2min 左右)
yum makecache
CentOS 8
中执行命令,出现报错:Failed to set locale, defaulting to C.UTF-8报错原因:RUN yum install glibc-langpack-zh
解决方法1:安装语言包
yum install glibc-langpack-zh
dnf install glibc-langpack-en
或 dnf install langpacks-en glibc-all-langpacks -y
解决方法2:设置正确的语言环境
echo "export LC_ALL=en_US.UTF-8" >> /etc/profile
source /etc/profile
或使用命令locale -gen en_US.UTF-8
yum -y install vim
FROM centos:latest
# 更改镜像,需要将镜像从 mirror.centos.org 更改为 vault.centos.org
RUN cd /etc/yum.repos.d/
RUN sed -i 's/mirrorlist/#mirrorlist/g' /etc/yum.repos.d/CentOS-*
RUN sed -i 's|#baseurl=http://mirror.centos.org|baseurl=http://vault.centos.org|g' /etc/yum.repos.d/CentOS-*
# 安装中文语言包
RUN yum -y install glibc-langpack-zh
centos8--Dockerfile完整版
FROM centos:latest MAINTAINER dy<dy@163.com> ENV MYPATH /usr/local WORKDIR $MYPATH # 更改镜像,需要将镜像从 mirror.centos.org 更改为 vault.centos.org RUN cd /etc/yum.repos.d/ RUN sed -i 's/mirrorlist/#mirrorlist/g' /etc/yum.repos.d/CentOS-* RUN sed -i 's|#baseurl=http://mirror.centos.org|baseurl=http://vault.centos.org|g' /etc/yum.repos.d/CentOS-* # 安装中文语言包 RUN yum -y install glibc-langpack-zh RUN yum install -y yum-utils # 安装vim编辑器 RUN yum -y install vim # 安装ifconfig命令查看网络IP RUN yum -y install net-tools # 安装java8 及 lib 库 RUN yum -y install glibc.i686 RUN mkdir /usr/local/java # ADD 是相对路径jar,把jdk-8u391-linux-x64.tar.gz添加到容器中,安装包必须要和Dockerfile文件在同一位置 ADD jdk-8u391-linux-x64.tar.gz /usr/local/java # 配置java环境变量 ENV JAVA_HOME /usr/local/java/jdk1.8.0_391 ENV JRE_HOME $JAVA_HOME/jre ENV CLASSPATH $JAVA_HOME/lib/dt.tar:$JAVA_HOME/lib/tools.jar$JRE_HOME/lib:$CLASSPATH ENV PATH $JAVA_HOME/bin/:$PATH EXPOSE 80 CMD echo $PATH CMD echo "success--------------------ok" CMD /bin/bash
Dockerfile
FROM centos:latest MAINTAINER dy<dy@163.com> ENV MYPATH /usr/local WORKDIR $MYPATH # 更改镜像,需要将镜像从 mirror.centos.org 更改为 vault.centos.org RUN cd /etc/yum.repos.d/ RUN sed -i 's/mirrorlist/#mirrorlist/g' /etc/yum.repos.d/CentOS-* RUN sed -i 's|#baseurl=http://mirror.centos.org|baseurl=http://vault.centos.org|g' /etc/yum.repos.d/CentOS-* # 安装中文语言包 RUN yum -y install glibc-langpack-zh RUN yum install -y yum-utils # 安装vim编辑器 RUN yum -y install vim # 安装ifconfig命令查看网络IP RUN yum -y install net-tools # 安装java8 及 lib 库 RUN yum -y install glibc.i686 EXPOSE 80 CMD echo "success--------------------ok" CMD /bin/bash
docker pull centos:latest
mkdir -p /app/myfile
cd /app/myfile
vi Dockerfile
docker build -t centos8:1.1 .
Dockerfile
# 测试用的
from ubuntu
CMD echo 'action is success'
docker build
# 查看虚悬镜像
docker image ls -f dangling=true
# 删除虚悬镜像
docker image prune
Dockerfile
FROM ubuntu MAINTAINER dy<dy@163.com> ENV MYPATH /usr/local WORKDIR $MYPATH RUN apt-get update RUN apt-get install net-tools RUN apt-get install -y iproute2 RUN apt-get install -y inetutils-ping EXPOSE 80 CMD echo $MYPATH CMD echo "install inconfig cmd into ubuntu success--------ok" CMD /bin/bash
docker build -t 新镜像名字:TAG .
docker run -it 新镜像名字:TAG
Dockerfile
# 指定基础镜像 FROM ubuntu:16.04 # 配置环境变量,JDK的安装目录 ENV JAVA_DIR=/usr/local # 拷贝jdk和java项目的包 COPY ./jdk8.tar.gz $JAVA_DIR/ COPY ./docker-demo.jar /tmp/app.jar # 安装JDK RUN cd $JAVA_DIR \ && tar -xf ./jdk8.tar.gz \ && mv ./jdk1.8.0_144 ./java8 # 配置环境变量 ENV JAVA_HOME=$JAVA_DIR/java8 ENV PATH=$PATH:$JAVA_HOME/bin # 暴露端口 EXPOSE 8090 # 入口,java项目的启动命令 ENTRYPOINT java -jar /tmp/app.jar
<?xml version="1.0" encoding="UTF-8"?> <project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 https://maven.apache.org/xsd/maven-4.0.0.xsd"> <modelVersion>4.0.0</modelVersion> <parent> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-parent</artifactId> <version>2.5.6</version> <relativePath/> </parent> <groupId>com.itcast</groupId> <artifactId>spring-boot-docker-demo</artifactId> <version>0.0.1-SNAPSHOT</version> <properties> <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding> <maven.complier.source>1.8</maven.complier.source> <maven.complier.target>1.8</maven.complier.target> <juint.version>4.12</juint.version> <log4j.version>1.2.17</log4j.version> <lombok.version>1.18.16</lombok.version> <mysql.version>5.1.47</mysql.version> <druid.version>1.1.16</druid.version> <mapper.version>4.1.5</mapper.version> <mybatis.spring.boot.version>1.3.0</mybatis.spring.boot.version> <java.version>1.8</java.version> </properties> <dependencies> <!--SpringBoot 通用依赖模版--> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-web</artifactId> </dependency> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-actuator</artifactId> </dependency> <!--test--> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-test</artifactId> <scope>test</scope> </dependency> </dependencies> <build> <plugins> <plugin> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-maven-plugin</artifactId> </plugin> <plugin> <groupId>org.apache.maven.plugins</groupId> <artifactId>maven-resources-plugin</artifactId> <version>3.1.0</version> </plugin> </plugins> </build> </project>
server.port=6001
@SpringBootApplication
public class SpringBootDockerDemoApplication {
public static void main(String[] args) {
SpringApplication.run(SpringBootDockerDemoApplication.class, args);
}
}
import java.util.UUID; @RestController @RequestMapping("/order") public class OrderController { @Value("${server.port}") private String port; @RequestMapping("/docker") public String helloDocker() { return "hell docker" + "\t" + port + "\t" + UUID.randomUUID().toString().replace("-", ""); } @RequestMapping(value = "/index", method = RequestMethod.GET) public String index() { return "服务端口号:" + "\t" + port + "\t" + UUID.randomUUID().toString().replace("-", ""); } }
# 基础镜像使用java
FROM java:8
# 作者
MAINTAINER DY
# volume 指定临时文件为/tmp,在主机/var/lib/docker目录下创建了一个临时文件并链接到容器的/tmp
VOLUME /tmp
# 将jar包添加到容器中并更名为 dy_docker.jar
ADD spring-boot-docker-demo-0.0.1-SNAPSHOT.jar dy_docker.jar
# 运行jar包
RUN bash -c 'touch /dy_docker.jar'
ENTRYPOINT ["java","-jar","/dy_docker.jar"]
# 暴露6001端口作为微服务
EXPOSE 6001
docker build -t dy_docker.jar:1.1 .
docker run -d -p 6001:6001 dy_docker.jar:1.1
curl 192.168.229.134:6001/order/docker
curl 192.168.229.134:6001/order/index
curl http://192.168.229.134:6001/order/docker
curl http://192.168.229.134:6001/order/index
Docker网络作用:
容器间的互联和通信以及端口映射
容器lP变动时候可以通过服务名直接网络通信而不受到影响
选择相关虚拟化的的服务安装系统后
,启动网卡时会发现有一个以网桥连接的私网地址的virbr0网卡yum remove libvirt-libs.x86_64
Docker 启动,会产生一个名为docker0的虚拟网桥
# 查看Docker网络 docker network ls # 查看网络数据源 docker network inspect XXXX网络名字 # 删除网络 docker network rm XXXX网络名字 docker network --help docker network COMMAND Commands: connect Connect a container to a network create Create a network disconnect Disconnect a container from a network inspect Display detailed information on one or more networks ls List networks prune Remove all unused networks rm Remove one or more networks
# 查看Docker网络
docker network ls
# 查看网络数据源
docker network inspect XXXX网络名字
# 创建网络
docker network create XXXX网络名字
# 删除网络
docker network rm XXXX网络名字
Docker网络作用:
容器间的互联和通信
以及端口映射
容器lP变动时候可以通过服务名直接网络通信而不受到影响
网络模式 | 简介 |
---|---|
bridge | 为每一个容器分配、设置IP等,并将容器连接到一个docker0 虚拟网桥,默认为该模式。 |
host | 容器将不会虚拟出自己的网卡,配置自己的IP等,而是使用宿主机的IP和端口。 |
none | 容器有独立的Network namespace,但并没有对其进行任何网络设置,如分配 veth pair 和网桥连接,IP等。 |
container | 新创建的容器不会创建自己的网卡和配置自己的lP而是和—个指定的容器共享IP、端口范围等。 |
命令:
bridge模式:使用--network bridge指定,默认使用dockerO
host模式:使用--network host指定
none模式:使用--network none指定
container模式:使用--network container:NAME或者容器ID指定
docker inspect 容器ID or 容器名字
# 查看数据源倒数20行
docker inspect u1 | tail -n 20
Docker服务默认会创建一个docker0网桥(其上有一个docker0内部接口),该桥接网络的名称为docker0,它在内核层
连通了其他的物理或虚拟网卡,这就将所有容器和本地主机都放到同一个物理网络
。Docker默认指定了docker0接口的IP地址和子网掩码,让主机和容器之间可以通过网桥相互通信。
# 查看bridge 网络的详细信息,并通过grep获取名额
docker network inspect bridge | grep name
ifconfig | grep docker
1 Docker使用Linux桥接,在宿主机虚拟一个Docker容器网桥(docker0),Docker启动一个容器时会根据Docker网桥的网段分配给容
器一个IP地址,称为Container-lP,同时Docker网桥是每个容器的默认网关。因为在同一宿主机内的容器都接入同一个网桥,这样容器之间就能够通过容器的Container-lP直接通信。
2 docker run的时候,没有指定network的话默认
使用的网桥模式就是bridge
,使用
的就是docker0
。在宿主机ifconfig,就可以看到doc
ker0和自己create的network(后面讲)eth0,eth1,eth……代表网卡一,网卡二,网卡三…… lo代表127.0.0.1,即localhost
, inet addr
用来表示网卡的IP地址
3 网桥docker0创建一对对等虚拟设备接口一个叫veth,另一个叫eth0,成对匹配。
3.1 整个宿主机的网桥模式都是docker0,类似一个交换机有一堆接口,每个接口叫veth,在本地主机和容器内分别创建一个虚拟接口,并让他们彼此联通(这样一对接口叫veth pair);
3.2 每个容器实例内部也有一块网卡,每个接口叫eth0;
3.3 docker0上面的每个veth匹配某个容器实例内部的eth0,两两配对,一 一匹配。
3.4 通过上述,将宿主机上的所有容器都连接到这个内部网络上,两个容器在同一个网络下,会从这个网关下各自拿到分配的ip,此时两个容器的网络是互通的。
docker run -d -p 8081:8080 --name tomcat81 billygoo/tomcat8-jdk8
docker run -d -p 8082:8080 --name tomcat82 billygoo/tomcat8-jdk8
直接使用宿主机的IP地址与外界进行通信,不再需要额外进行NAT转换。
容器将
不会获得
一个独立的Network Namespace,而是和宿主机共用一个Network Namespace。容器将不会虚拟出自己的网卡而是使用宿主机的IP和端口。
警告:
docker run -d -p 8083:8080 --network host --name tomcat83 billygoo/tomcat8-jdk8
端口号会以主机端口号为主
,重复时则递增。正确代码:
docker run -d --network host --name tomcat84 billygoo/tomcat8-jdk8
http://宿主机IP:8080/
在CentOS里面用默认的火狐浏览器访问容器内的tomcat84看到访问成功,因为此时容器的IP借用主机的,所以容器共享宿主机网络IP,这样的好处是外部主机与容器可以直接通信。
none是禁用网络功能,只有lo标识(就是127.0.0.1表示本地回环)
在none模式下,并不为Docker容器进行任何网络配置。
也就是说,这个Docker容器没有网卡、IP、路由等信息,只有一个lo。
需要我们自己为Docker容器添加网卡、配置IP等。
docker run -d -p 8085:8080 --network none --name tomcat85 billygoo/tomcat8-jdk8
container网络模式
新建的容器和已经存在的一个容器共享一个网络ip配置而不是和宿主机共享。
新创建的容器不会创建自己的网卡,配置自己的IP,而是和一个指定的容器共享IP、端口范围等。同样,两个容器除了网络方面,其他的如文件系统、进程列表等还是隔离的。
Apine Linux是一款独立的、非商业的通用Linux发行版,专为追求安全性、简单性和资源效率的用户而设计。
可能很多人没听说过这个Linux发行版本,但是经常用Docker的朋友可能都用过,
因为他小,简单,安全而著称,所以作为基础镜像是非常好的一个选择,可谓是麻雀虽小但五脏俱全,镜像非常小巧,不到6M的大小,所以特别适合容器打包。
docker pull alpine
docker run -it --name alpine1 alpine /bin/sh
docker run -it --network container:alpine1 --name alpine2 alpine /bin/sh
docker run -d -p 8081:8080 --name tomcat81 billygoo/tomcat8-jdk8
docker run -d -p 8082:8080 --name tomcat82 billygoo/tomcat8-jdk8
#上述成功启动并运行docker exec 进入各自容器实例内部
docker exec -it tomcat81 bash
docker exec -it tomcat82 bash
docker network ls
docker network create p_network
docker run -d -p 8081:8080 --network p_network --name tomcat81 billygoo/tomcat8-jdk8
docker run -d -p 8082:8080 --network p_network --name tomcat82 billygoo/tomcat8-jdk8
#上述成功启动并运行docker exec 进入各自容器实例内部
docker exec -it tomcat81 bash
docker exec -it tomcat82 bash
Compose是Docker公司推出的一个工具软件,可以管理多个Docker容器组成一个应用。
你需要定义一个YAML格式的配置文件docker-compose.yml
,写好多个容器之间的调用关系
。
然后,只要一个命令,就能同时启动/关闭这些容器。
Docker-Compose是Docker官方的开源项目,负责实现对Docker容器集群的快速编排。
docker建议我们每一个容器中只运行一个服务,因为docker容器本身占用资源极少,所以最好是将每个服务单独的分割开来但是这样我们又面临了一个问题?
如果我需要同时部署好多个服务,难道要每个服务单独写Dockerfle然后在构建镜像,构建容器,这样累都累死了,所以docker官方给我们提供了docker-compose多服务部署的工具
例如:要实现一个Web微服务项目
,除了Web服务容器本身,往往还需要再加上后端的数据库mysql服务容器,redis服务器,注册中心eureka,甚至还包括负载均衡容器等等…
Compose允许用户通过一个单独的docker-compose.yml
模板文件(YAML格式)
来定义一组相关联的应用容器为一个项目
(project可以很容易地用一个配置文件定义一个多容器的应用,然后使用一条指令
安装这个应用的所有依赖
,完成构建。
Docker-Compose解决了容器与容器之间如何管理编排的问题。
Docker Compose和Docker版本对应关系官网:https://docs.docker.com/compose/compose-file/compose-file-v3/
官网下载:https://docs.docker.com/compose/install/
Install Compose standalone: https://docs.docker.com/compose/install/standalone/
Docker Compose下载地址:https://github.com/docker/compose/releases
下载地址:https://docs.docker.com/compose/install/linux/#install-the-plugin-manually
命令下载或者手动下载:
curl -SL https://github.com/docker/compose/releases/download/v2.23.3/docker-compose-linux-x86_64 -o /usr/local/bin/docker-compose
# 赋予执行权限,读写权限
chmod +x /usr/local/bin/docker-compose
# 版本信息
docker-compose --version
# 建立软连接:
sudo ln -s /usr/local/bin/docker-compose /usr/bin/docker-compose
# 如果您使用curl以下方式安装,则卸载 Docker Compose:
sudo rm /usr/local/bin/docker-compose
文件
docker-compose.yml
服务 (service)
一个个应用容器实例,比如订单微服务、库存微服务、mysql容器、nginx容器或者redis容器
工程 (project)
由一组关联的应用容器组成的一个
完整业务单元
,在docker-compose.yml文件
中定义。
编写Dockerfile定义各个微服务
应用并构建出对应的镜像文件使用docker-compose.yml
定义一个完整业务单元,安排好整体应用中的各个容器服务。
最后,执行docker-compose up
命令来启动并运行整个应用程序,完成一键部署上线
内容如下:
version: "3.2" services: nacos: image: nacos/nacos-server environment: MODE: standalone ports: - "8848:8848" mysql: image: mysql:5.7.25 environment: MYSQL_ROOT_PASSWORD: 123456 volumes: - "$PWD/mysql/data:/var/lib/mysql" - "$PWD/mysql/conf:/etc/mysql/conf.d/" userservice: build: ./user-service orderservice: build: ./order-service gateway: build: ./gateway ports: - "10010:10010"
可以看到,其中包含5个service服务:
nacos
:作为注册中心和配置中心
image: nacos/nacos-server
: 基于nacos/nacos-server镜像构建environment
:环境变量
MODE: standalone
:单点模式启动ports
:端口映射,这里暴露了8848端口mysql
:数据库
image: mysql:5.7.25
:镜像版本是mysql:5.7.25environment
:环境变量
MYSQL_ROOT_PASSWORD: 123
:设置数据库root账户的密码为123volumes
:数据卷挂载,这里挂载了mysql的data、conf目录,其中有我提前准备好的数据userservice
、orderservice
、gateway
:都是基于Dockerfile临时构建的以mysql服务为例,说明下常用字段的含义:
version: '3'#第一层:compose的版本号 services: #第二层:服务配置信息 mysql1: #服务名 image: mysql #该服务所基于的镜像名 environment: #该服务的环境变量 MYSQL_ROOT_PASSWORD: "ut.123456" ports: #该服务的暴露端口 - "3306:3306" container_name: "mysql1" #容器名 networks: #该服务所加入的网络段 - dev volumes: #挂载数据卷 - /platform/mysql/conf:/etc/my.cnf.d/my.cnf - /platform/mysql/data:/var/lib/mysql:rw" networks: #第三层:网络环境 dev: driver: bridge
docker compose 命令的基本格式为:
docker-compose [-f …] [options] [COMMAND] [ARGS…]
命令 | 作用 |
---|---|
docker-compose -h | #查看帮助 |
docker-compose up | #启动所有docker-compose服务 |
docker-compose up -d | #启动所有docker-compose服务并后台运行 |
docker-compose down | #停止并删除容器、网络、卷、镜像。 |
docker-compose exec yml里面的服务id | #进入容器实例内部 docker-compose exec docker-compose.yml文件中写的服务id /bin/bash |
docker-compose ps | #展示当前docker-compose编排过的运行的所有容器 |
docker-compose top | #展示当前docker-compose编排过的容器进程 |
docker-compose logs yml里面的服务id | #查看容器输出日志 |
dokcer-compose config | #检查配置 |
dokcer-compose config -q | #检查配置,有问题才有输出 |
docker-compose restart | #重启服务 |
docker-compose start | #启动服务 |
docker-compose stop | #停止服务 |
docker-compose ps 显示所有容器 docker-compose build nginx 构建nginx镜像 docker-compose up -d nginx 构建启动nignx容器 docker-compose exec nginx bash 登录到nginx容器中 docker-compose pause nginx 暂停nignx容器 docker-compose unpause nginx 恢复ningx容器 docker-compose start nginx 启动nignx容器 docker-compose stop nginx 停止nignx容器 docker-compose restart nginx 重新启动nginx容器 docker-compose rm nginx 删除nginx容器 docker-compose down 删除nginx容器和镜像 docker-compose logs -f nginx 查看nginx的实时日志
DockerCompose的详细语法参考官网:https://docs.docker.com/compose/compose-file/
CREATE TABLE t_user (
id int unsigned NOT NULL AUTO_INCREMENT,
username varchar(50) NOT NULL DEFAULT '' COMMENT '用户名',
password varchar(50) NOT NULL DEFAULT '' COMMENT '密码',
sex tinyint NOT NULL DEFAULT '0' COMMENT '性别 0=女 1=男 ',
deleted tinyint unsigned NOT NULL DEFAULT '0' COMMENT '删除标志,默认0不删除,1删除',
update_time timestamp NOT NULL DEFAULT CURRENT_TIMESTAMP ON UPDATE CURRENT_TIMESTAMP COMMENT '更新时间',
create_time timestamp NOT NULL DEFAULT CURRENT_TIMESTAMP COMMENT '创建时间',
PRIMARY KEY (id)
) ENGINE=InnoDB AUTO_INCREMENT=1114 DEFAULT CHARSET=utf8mb3 COMMENT='用户表';
insert into t_user (id,username,password)values
(1095,'xyz1',221462),
(1096,'xyz2',221463),
(1097,'xyz3',221464),
(1098,'xyz4',221465),
(1099,'xyz5',221466),
(1100,'xyz6',221467),
(1101,'xyz7',221468),
(1102,'xyz8',221469),
(1103,'xyz9',221470);
<?xml version="1.0" encoding="UTF-8"?> <project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 https://maven.apache.org/xsd/maven-4.0.0.xsd"> <modelVersion>4.0.0</modelVersion> <parent> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-parent</artifactId> <version>2.5.6</version> <relativePath/> </parent> <groupId>com.itcast</groupId> <artifactId>spring-boot-docker-demo</artifactId> <version>1.2</version> <properties> <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding> <maven.complier.source>1.8</maven.complier.source> <maven.complier.target>1.8</maven.complier.target> <juint.version>4.12</juint.version> <log4j.version>1.2.17</log4j.version> <lombok.version>1.18.16</lombok.version> <mysql.version>5.1.47</mysql.version> <druid.version>1.1.16</druid.version> <mapper.version>4.1.5</mapper.version> <mybatis.spring.boot.version>1.3.0</mybatis.spring.boot.version> </properties> <dependencies> <!--guava Google 开源的 Guava 中自带的布隆过滤器--> <dependency> <groupId>com.google.guava</groupId> <artifactId>guava</artifactId> <version>23.0</version> </dependency> <!-- redisson --> <dependency> <groupId>org.redisson</groupId> <artifactId>redisson</artifactId> <version>3.13.4</version> </dependency> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-web</artifactId> </dependency> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-actuator</artifactId> </dependency> <!--swagger2--> <dependency> <groupId>io.springfox</groupId> <artifactId>springfox-swagger2</artifactId> <version>2.9.2</version> </dependency> <dependency> <groupId>io.springfox</groupId> <artifactId>springfox-swagger-ui</artifactId> <version>2.9.2</version> </dependency> <!--SpringBoot与Redis整合依赖--> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-data-redis</artifactId> </dependency> <!--springCache--> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-cache</artifactId> </dependency> <!--springCache连接池依赖包--> <dependency> <groupId>org.apache.commons</groupId> <artifactId>commons-pool2</artifactId> </dependency> <!-- jedis --> <dependency> <groupId>redis.clients</groupId> <artifactId>jedis</artifactId> <version>3.1.0</version> </dependency> <!--Mysql数据库驱动--> <dependency> <groupId>mysql</groupId> <artifactId>mysql-connector-java</artifactId> <version>5.1.47</version> </dependency> <!--SpringBoot集成druid连接池--> <dependency> <groupId>com.alibaba</groupId> <artifactId>druid-spring-boot-starter</artifactId> <version>1.1.10</version> </dependency> <dependency> <groupId>com.alibaba</groupId> <artifactId>druid</artifactId> <version>${druid.version}</version> </dependency> <!--mybatis和springboot整合--> <dependency> <groupId>org.mybatis.spring.boot</groupId> <artifactId>mybatis-spring-boot-starter</artifactId> <version>${mybatis.spring.boot.version}</version> </dependency> <!-- 添加springboot对amqp的支持 --> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-amqp</artifactId> </dependency> <dependency> <groupId>commons-codec</groupId> <artifactId>commons-codec</artifactId> <version>1.10</version> </dependency> <!--通用基础配置junit/devtools/test/log4j/lombok/hutool--> <!--hutool--> <dependency> <groupId>cn.hutool</groupId> <artifactId>hutool-all</artifactId> <version>5.2.3</version> </dependency> <dependency> <groupId>junit</groupId> <artifactId>junit</artifactId> <version>${junit.version}</version> </dependency> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-devtools</artifactId> <scope>runtime</scope> <optional>true</optional> </dependency> <dependency> <groupId>log4j</groupId> <artifactId>log4j</artifactId> <version>${log4j.version}</version> </dependency> <dependency> <groupId>org.projectlombok</groupId> <artifactId>lombok</artifactId> <version>${lombok.version}</version> <optional>true</optional> </dependency> <!--persistence--> <dependency> <groupId>javax.persistence</groupId> <artifactId>persistence-api</artifactId> <version>1.0.2</version> </dependency> <!--通用Mapper--> <dependency> <groupId>tk.mybatis</groupId> <artifactId>mapper</artifactId> <version>${mapper.version}</version> </dependency> <!--test--> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-test</artifactId> <scope>test</scope> </dependency> </dependencies> <build> <plugins> <plugin> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-maven-plugin</artifactId> </plugin> <plugin> <groupId>org.apache.maven.plugins</groupId> <artifactId>maven-resources-plugin</artifactId> <version>3.1.0</version> </plugin> </plugins> </build> </project>
server.port=6001 # ========================alibaba.druid相关配置===================== spring.datasource.type=com.alibaba.druid.pool.DruidDataSource spring.datasource.driver-class-name=com.mysql.jdbc.Driver spring.datasource.url=jdbc:mysql://192.168.229.134:3306/db2024?useUnicode=true&characterEncoding=utf-8&useSSL=false spring.datasource.username=root spring.datasource.password=123456 spring.datasource.druid.test-while-idle=false # ========================redis相关配置===================== spring.redis.database=0 spring.redis.host=192.168.229.134 spring.redis.port=6379 spring.redis.password= spring.redis.lettuce.pool.max-active=8 spring.redis.lettuce.pool.max-wait=-1ms spring.redis.lettuce.pool.max-idle=8 spring.redis.lettuce.pool.min-idle=0 # ========================mybatis相关配置=================== mybatis.mapper-locations=classpath:mapper/*.xml mybatis.type-aliases-package=com.itcast.entry # ========================swagger===================== spring.swagger2.enabled=true
package com.itcast;
import org.springframework.boot.SpringApplication;
import org.springframework.boot.autoconfigure.SpringBootApplication;
import tk.mybatis.spring.annotation.MapperScan;
@SpringBootApplication
@MapperScan("com.itcast.mapper") //import tk.mybatis.spring.annotation.MapperScan;
public class SpringBootDockerDemoApplication {
public static void main(String[] args) {
SpringApplication.run(SpringBootDockerDemoApplication.class, args);
}
}
package com.itcast.config; import lombok.extern.slf4j.Slf4j; import org.springframework.context.annotation.Bean; import org.springframework.context.annotation.Configuration; import org.springframework.data.redis.connection.lettuce.LettuceConnectionFactory; import org.springframework.data.redis.core.RedisTemplate; import org.springframework.data.redis.serializer.GenericJackson2JsonRedisSerializer; import org.springframework.data.redis.serializer.StringRedisSerializer; import java.io.Serializable; @Configuration @Slf4j public class RedisConfig { /** * @param lettuceConnectionFactory * @return redis序列化的工具配置类,下面这个请一定开启配置 * 127.0.0.1:6379> keys * * 1) "ord:102" 序列化过 * 2) "\xac\xed\x00\x05t\x00\aord:102" 野生,没有序列化过 */ @Bean public RedisTemplate<String, Serializable> redisTemplate(LettuceConnectionFactory lettuceConnectionFactory) { RedisTemplate<String, Serializable> redisTemplate = new RedisTemplate<>(); redisTemplate.setConnectionFactory(lettuceConnectionFactory); //设置key序列化方式string redisTemplate.setKeySerializer(new StringRedisSerializer()); //设置value的序列化方式json redisTemplate.setValueSerializer(new GenericJackson2JsonRedisSerializer()); redisTemplate.setHashKeySerializer(new StringRedisSerializer()); redisTemplate.setHashValueSerializer(new GenericJackson2JsonRedisSerializer()); redisTemplate.afterPropertiesSet(); return redisTemplate; } }
package com.itcast.config; import org.springframework.beans.factory.annotation.Value; import org.springframework.context.annotation.Bean; import org.springframework.context.annotation.Configuration; import springfox.documentation.builders.ApiInfoBuilder; import springfox.documentation.builders.PathSelectors; import springfox.documentation.builders.RequestHandlerSelectors; import springfox.documentation.service.ApiInfo; import springfox.documentation.spi.DocumentationType; import springfox.documentation.spring.web.plugins.Docket; import springfox.documentation.swagger2.annotations.EnableSwagger2; import java.text.SimpleDateFormat; import java.util.Date; @Configuration @EnableSwagger2 public class SwaggerConfig { @Value("${spring.swagger2.enabled}") private Boolean enabled; @Bean public Docket createRestApi() { return new Docket(DocumentationType.SWAGGER_2) .apiInfo(apiInfo()) .enable(enabled) .select() .apis(RequestHandlerSelectors.basePackage("com.itcast")) //你自己的package .paths(PathSelectors.any()) .build(); } public ApiInfo apiInfo() { return new ApiInfoBuilder() .title("Api接口测试" + "\t" + new SimpleDateFormat("yyyy-MM-dd").format(new Date())) .description("docker-compose") .version("1.0") .termsOfServiceUrl("https://www.atguigu.com/") .build(); } }
package com.itcast.entry; import javax.persistence.Column; import javax.persistence.GeneratedValue; import javax.persistence.Id; import javax.persistence.Table; import java.util.Date; @Table(name = "t_user") public class User { @Id @GeneratedValue(generator = "JDBC") private Integer id; private String username; //用户名 private String password; //密码 private Byte sex; //性别 0=女 1=男 private Byte deleted; //删除标志,默认0不删除,1删除 @Column(name = "update_time") private Date updateTime; //更新时间 @Column(name = "create_time") private Date createTime; //创建时间 public Integer getId() { return id; } public void setId(Integer id) { this.id = id; } public String getUsername() { return username; } public void setUsername(String username) { this.username = username; } public String getPassword() { return password; } public void setPassword(String password) { this.password = password; } public Byte getSex() { return sex; } public void setSex(Byte sex) { this.sex = sex; } public Byte getDeleted() { return deleted; } public void setDeleted(Byte deleted) { this.deleted = deleted; } public Date getUpdateTime() { return updateTime; } public void setUpdateTime(Date updateTime) { this.updateTime = updateTime; } public Date getCreateTime() { return createTime; } public void setCreateTime(Date createTime) { this.createTime = createTime; } }
package com.itcast.entry; import io.swagger.annotations.ApiModel; import io.swagger.annotations.ApiModelProperty; import lombok.AllArgsConstructor; import lombok.Data; import lombok.NoArgsConstructor; import java.io.Serializable; import java.util.Date; @NoArgsConstructor @AllArgsConstructor @Data @ApiModel(value = "用户信息") public class UserDTO implements Serializable { @ApiModelProperty(value = "用户ID") private Integer id; @ApiModelProperty(value = "用户名") private String username; @ApiModelProperty(value = "密码") private String password; @ApiModelProperty(value = "性别 0=女 1=男 ") private Byte sex; @ApiModelProperty(value = "删除标志,默认0不删除,1删除") private Byte deleted; @ApiModelProperty(value = "更新时间") private Date updateTime; @ApiModelProperty(value = "创建时间") private Date createTime; public Integer getId() { return id; } public void setId(Integer id) { this.id = id; } public String getUsername() { return username; } public void setUsername(String username) { this.username = username; } public String getPassword() { return password; } public void setPassword(String password) { this.password = password; } public Byte getSex() { return sex; } public void setSex(Byte sex) { this.sex = sex; } public Byte getDeleted() { return deleted; } public void setDeleted(Byte deleted) { this.deleted = deleted; } public Date getUpdateTime() { return updateTime; } public void setUpdateTime(Date updateTime) { this.updateTime = updateTime; } public Date getCreateTime() { return createTime; } public void setCreateTime(Date createTime) { this.createTime = createTime; } @Override public String toString() { return "User{" + "id=" + id + ", username='" + username + '\'' + ", password='" + password + '\'' + ", sex=" + sex + '}'; } }
package com.itcast.mapper;
import com.itcast.entry.User;
import tk.mybatis.mapper.common.Mapper;
public interface UserMapper extends Mapper<User> {//tk.mybatis.mapper.common.Mapper
}
UserMapper.xml
<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE mapper PUBLIC "-//mybatis.org//DTD Mapper 3.0//EN" "http://mybatis.org/dtd/mybatis-3-mapper.dtd">
<mapper namespace="com.itcast.mapper.UserMapper">
<resultMap id="BaseResultMap" type="com.itcast.entry.User">
<id column="id" jdbcType="INTEGER" property="id"/>
<result column="username" jdbcType="VARCHAR" property="username"/>
<result column="password" jdbcType="VARCHAR" property="password"/>
<result column="sex" jdbcType="TINYINT" property="sex"/>
<result column="deleted" jdbcType="TINYINT" property="deleted"/>
<result column="update_time" jdbcType="TIMESTAMP" property="updateTime"/>
<result column="create_time" jdbcType="TIMESTAMP" property="createTime"/>
</resultMap>
</mapper>
public interface UserService {
void addUser(User user);
User findUserById(Integer id);
void deleteUser(Integer id);
void updateUser(User user);
}
package com.itcast.service.impl; import com.itcast.entry.User; import com.itcast.mapper.UserMapper; import com.itcast.service.UserService; import lombok.extern.slf4j.Slf4j; import org.springframework.data.redis.core.RedisTemplate; import org.springframework.stereotype.Service; import javax.annotation.Resource; @Service @Slf4j public class UserServiceImpl implements UserService { public static final String CACHE_KEY_USER = "user:"; @Resource private UserMapper userMapper; @Resource private RedisTemplate redisTemplate; @Override public void addUser(User user) { //1 先插入mysql并成功 int i = userMapper.insertSelective(user); if (i > 0) { //2 需要再次查询一下mysql将数据捞回来并ok user = userMapper.selectByPrimaryKey(user.getId()); //3 将捞出来的user存进redis,完成新增功能的数据一致性。 String key = CACHE_KEY_USER + user.getId(); redisTemplate.opsForValue().set(key, user); } } @Override public User findUserById(Integer id) { User user = null; String key = CACHE_KEY_USER + id; //1 先从redis里面查询,如果有直接返回结果,如果没有再去查询mysql user = (User) redisTemplate.opsForValue().get(key); if (user == null) { //2 redis里面无,继续查询mysql user = userMapper.selectByPrimaryKey(id); if (user == null) { //3.1 redis+mysql 都无数据 //你具体细化,防止多次穿透,我们规定,记录下导致穿透的这个key回写redis return user; } else { //3.2 mysql有,需要将数据写回redis,保证下一次的缓存命中率 redisTemplate.opsForValue().set(key, user); } } return user; } @Override public void deleteUser(Integer id) { String key = CACHE_KEY_USER + id; //1.从mysql里面删除 userMapper.deleteByPrimaryKey(id); //2.从redis里面删除 redisTemplate.delete(key); } @Override public void updateUser(User user) { String key = CACHE_KEY_USER + user.getId(); //1.从mysql更新数据 userMapper.updateByPrimaryKey(user); User user1 = findUserById(user.getId()); //2.从redis更新数据 redisTemplate.opsForValue().set(key, user1); } }
package com.itcast.controller; import cn.hutool.core.util.IdUtil; import com.itcast.entry.User; import com.itcast.entry.UserDTO; import com.itcast.service.impl.UserServiceImpl; import io.swagger.annotations.Api; import io.swagger.annotations.ApiOperation; import lombok.extern.slf4j.Slf4j; import org.springframework.beans.BeanUtils; import org.springframework.web.bind.annotation.*; import javax.annotation.Resource; import java.util.Random; @Api(description = "用户User接口") @RestController @Slf4j @RequestMapping("/users") public class UserController { @Resource private UserServiceImpl userService; @ApiOperation("数据库新增3条记录") @PostMapping public void addUser() { for (int i = 1; i <= 3; i++) { User user = new User(); user.setUsername("lb" + i); user.setPassword(IdUtil.simpleUUID().substring(0, 6)); user.setSex((byte) new Random().nextInt(2)); userService.addUser(user); } } @ApiOperation("删除1条记录") @DeleteMapping("/{id}") public void deleteUser(@PathVariable Integer id) { userService.deleteUser(id); } @ApiOperation("修改1条记录") @PutMapping public void updateUser(@RequestBody UserDTO userDTO) { User user = new User(); BeanUtils.copyProperties(userDTO, user); userService.updateUser(user); } @ApiOperation("查询1条记录") @GetMapping("/{id}") public User findUserById(@PathVariable Integer id) { return userService.findUserById(id); } }
# 基础镜像使用java
FROM java:8
# 作者
MAINTAINER DY
# volume 指定临时文件为/tmp,在主机/var/lib/docker目录下创建了一个临时文件并链接到容器的/tmp
VOLUME /tmp
# 将jar包添加到容器中并更名为 docker-compose-test.jar
ADD spring-boot-docker-demo-1.2.jar docker-compose-test.jar
# 运行jar包
RUN bash -c 'touch /docker-compose-test.jar'
ENTRYPOINT ["java","-jar","/docker-compose-test.jar"]
# 暴露6001端口作为微服务
EXPOSE 6001
docker build -t docker-compose-test:1.2 .
/app/mysql/conf/my.cnf
[client]
default_character_set=utf8
[mysqld]
collation_server = utf8_general_ci
character_set_server = utf8
docker run \
-p 3306:3306 \
--name mysql57 \
--privileged=true \
-v /app/mysql/conf:/etc/mysql/conf.d \
-v /app/mysql/logs:/logs \
-v /app/mysql/data:/var/lib/mysql \
-e MYSQL_ROOT_PASSWORD=123456 \
-d mysql:5.7
docker exec -it mysql57 bash
create database db2024;
use db2024;
CREATE TABLE t_user (
id int unsigned NOT NULL AUTO_INCREMENT,
username varchar(50) NOT NULL DEFAULT '' COMMENT '用户名',
password varchar(50) NOT NULL DEFAULT '' COMMENT '密码',
sex tinyint NOT NULL DEFAULT '0' COMMENT '性别 0=女 1=男 ',
deleted tinyint unsigned NOT NULL DEFAULT '0' COMMENT '删除标志,默认0不删除,1删除',
update_time timestamp NOT NULL DEFAULT CURRENT_TIMESTAMP ON UPDATE CURRENT_TIMESTAMP COMMENT '更新时间',
create_time timestamp NOT NULL DEFAULT CURRENT_TIMESTAMP COMMENT '创建时间',
PRIMARY KEY (id)
) ENGINE=InnoDB AUTO_INCREMENT=1114 DEFAULT CHARSET=utf8mb3 COMMENT='用户表';
docker run \
-p 6379:6379 \
--name redis \
--privileged=true \
-v /app/redis/redis.conf:/etc/redis/redis.conf \
-v /app/redis/data:/data \
-d redis:6.0.8 redis-server /etc/redis/redis.conf
docker exec -it redis608 bash
redis-cli -p 6379
docker run -d -p 6001:6001 docker-compose-test:1.2
docker run -d -p 6001:6001 82901d53b6fd
测试链接:http://192.168.229.134:6001/swagger-ui.html#/
启停或宕机
,有可能导致IP地址
对应的容器实例变化,映射出错
,要么生产IP写死(可以但是不推荐),要么通过服务调用docker-compose.yml
version: "3" services: microService: image: docker-compose-test:1.3 container_name: ms01 ports: - "6001:6001" volumes: - /app/microService:/data networks: - p_net depends_on: - redis - mysql redis: image: redis:6.0.8 ports: - "6379:6379" volumes: - /app/redis/redis.conf:/etc/redis/redis.conf - /app/redis/data:/data networks: - p_net command: redis-server /etc/redis/redis.conf mysql: image: mysql:5.7 environment: MYSQL_ROOT_PASSWORD: '123456' MYSQL_ALLOW_EMPTY_PASSWORD: 'no' MYSQL_DATABASE: 'db2024' MYSQL_USER: 'lb' MYSQL_PASSWORD: '123456' ports: - "3306:3306" volumes: - /app/mysql/db:/var/lib/mysql - /app/mysql/conf/my.cnf:/etc/my.cnf - /app/mysql/init:/docker-entrypoint-initdb.d networks: - p_net command: --default-authentication-plugin=mysql_native_password networks: p_net:
详解:
version: "3" # 版本号 services: microService: # 定义服务名字,微服务microService image: docker-compose-test:1.3 # 镜像名字:版本号 container_name: ms01 ports: - "6001:6001" volumes: - /app/microService:/data networks: - p_net depends_on: - redis - mysql # docker run -d -p 6001:6001 -v /app/microService:/data --network p_net --name ms01 docker-compose-test:1.3 redis: image: redis:6.0.8 ports: - "6379:6379" volumes: - /app/redis/redis.conf:/etc/redis/redis.conf - /app/redis/data:/data networks: - p_net command: redis-server /etc/redis/redis.conf mysql: image: mysql:5.7 environment: MYSQL_ROOT_PASSWORD: '123456' MYSQL_ALLOW_EMPTY_PASSWORD: 'no' MYSQL_DATABASE: 'db2024' MYSQL_USER: 'lb' MYSQL_PASSWORD: '123456' ports: - "3306:3306" volumes: - /app/mysql/db:/var/lib/mysql - /app/mysql/conf/my.cnf:/etc/my.cnf - /app/mysql/init:/docker-entrypoint-initdb.d networks: - p_net command: --default-authentication-plugin=mysql_native_password #解决外部无法访问 # docker network create p_net networks: p_net:
两处修改将192.168.229.134换成对应的服务名称mysql,redis
#spring.datasource.url=jdbc:mysql://192.168.229.134:3306/db2024?useUnicode=true&characterEncoding=utf-8&useSSL=false spring.datasource.url=jdbc:mysql://mysql:3306/db2024?useUnicode=true&characterEncoding=utf-8&useSSL=false spring.datasource.username=root spring.datasource.password=123456 spring.datasource.druid.test-while-idle=false # ========================redis相关配置===================== spring.redis.database=0 #spring.redis.host=192.168.229.134 spring.redis.host=redis spring.redis.port=6379 spring.redis.password= spring.redis.lettuce.pool.max-active=8 spring.redis.lettuce.pool.max-wait=-1ms spring.redis.lettuce.pool.max-idle=8 spring.redis.lettuce.pool.min-idle=0 # ========================mybatis相关配置=================== mybatis.mapper-locations=classpath:mapper/*.xml mybatis.type-aliases-package=com.itcast.entry # ========================swagger===================== spring.swagger2.enabled=true
# 构建新镜像docker-compose-test:1.3
docker build -t docker-compose-test:1.3 .
# 检查配置,有问题才输出
docker-compose config -q
docker exec -it d128363b77bc bash mysql -ulb -p123456 create database db2024; use db2024; CREATE TABLE t_user ( id int unsigned NOT NULL AUTO_INCREMENT, username varchar(50) NOT NULL DEFAULT '' COMMENT '用户名', password varchar(50) NOT NULL DEFAULT '' COMMENT '密码', sex tinyint NOT NULL DEFAULT '0' COMMENT '性别 0=女 1=男 ', deleted tinyint unsigned NOT NULL DEFAULT '0' COMMENT '删除标志,默认0不删除,1删除', update_time timestamp NOT NULL DEFAULT CURRENT_TIMESTAMP ON UPDATE CURRENT_TIMESTAMP COMMENT '更新时间', create_time timestamp NOT NULL DEFAULT CURRENT_TIMESTAMP COMMENT '创建时间', PRIMARY KEY (id) ) ENGINE=InnoDB AUTO_INCREMENT=1114 DEFAULT CHARSET=utf8mb3 COMMENT='用户表';
测试链接:http://192.168.229.134:6001/swagger-ui.html#/
命令 | 作用 |
---|---|
docker-compose -h | #查看帮助 |
docker-compose up | #启动所有docker-compose服务 |
docker-compose up -d | #启动所有docker-compose服务并后台运行 |
docker-compose down | #停止并删除容器、网络、卷、镜像。 |
docker-compose exec yml里面的服务id | #进入容器实例内部 docker-compose exec docker-compose.yml文件中写的服务id /bin/bash |
docker-compose ps | #展示当前docker-compose编排过的运行的所有容器 |
docker-compose top | #展示当前docker-compose编排过的容器进程 |
docker-compose logs yml里面的服务id | #查看容器输出日志 |
dokcer-compose config | #检查配置 |
dokcer-compose config -q | #检查配置,有问题才有输出 |
docker-compose restart | #重启服务 |
docker-compose start | #启动服务 |
docker-compose stop | #停止服务 |
以nginx容器操作为例,常见操作如下:
docker-compose ps 显示所有容器 docker-compose build nginx 构建nginx镜像 docker-compose up -d nginx 构建启动nignx容器 docker-compose exec nginx bash 登录到nginx容器中 docker-compose pause nginx 暂停nignx容器 docker-compose unpause nginx 恢复ningx容器 docker-compose start nginx 启动nignx容器 docker-compose stop nginx 停止nignx容器 docker-compose restart nginx 重新启动nginx容器 docker-compose rm nginx 删除nginx容器 docker-compose down 删除nginx容器和镜像 docker-compose logs -f nginx 查看nginx的实时日志
DockerCompose的详细语法参考官网:https://docs.docker.com/compose/compose-file/
Redis-Desktop-Manager连接需要四个参数介绍:
Name:自定义连接名
Host:redis服务器地址,在CentOS终端中使用命令;
ifconfig:该命令显示的,ens33中的inet后的地址即为redis-server host
端口:默认6379
Auth:数据库密码,通常是设置数据库config时自定义的密码
#bind 127.0.0.1 # 注释掉,允许远程连接(注释或者改为bind 0.0.0.0)
protected-mode no # 保护模式由yes改为no
appendonly yes # 开启AOP持久化
daemonize no # 后台启动设置为no
#requirepass 123456 # 开启redis验证
# 查看redis服务进程是否正常开启
ps -ef|grep redis|grep -v grep
ps -ef |grep redis
systemctl stop firewalld # 关闭linux防火墙
systemctl status firewalld # 查看firewall的状态
# 创建自定义网络
docker network create test_network
# 启动Redis容器,并加入自定义网络
docker run \
-p 6380:6379 \
--network test_network \
--name redis6 \
--privileged=true \
-d redis:latest redis-server
# 启动其他容器,并加入自定义网络
在使用Docker运行Redis容器时,如果遇到连接不上的问题,可以先检查网络配置是否正确
,包括IP地址冲突
和防火墙设置
。
如果仍然无法解决,可以尝试修改Redis配置文件
,并挂载到容器中。
另外,如果需要容器间通信,可以选择合适的网络模式
来解决问题。
docker: Error response from daemon: driver failed programming external connectivity on endpoint redis (88aa3ee8adb07d3da901e2a53d4f086ea9eca3a686c3a0374745d272aff71495): (iptables failed: iptables --wait -t nat -A DOCKER -p tcp -d 0/0 --dport 6379 -j DNAT --to-destination 172.17.0.3:6379 ! -i docker0: iptables: No chain/target/match by that name.
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。