当前位置:   article > 正文

Docker网络模型详解_docker ip_local_port_range

docker ip_local_port_range

目录

一、Docker网络基础

1、端口映射

使用-P选项时Docker会随机映射一个端口至容器内部的开放端口

使用docker logs查看Nginx的日志

查看映射的随机端口范围 

 2、使用-p可以指定要映射到的本地端口。

Local_Port:Container_Port   : 端口映射参数中指定了宿主机的8000映射到容器内部的80端口,可以多次使用-p选项

Local_IP:Local_Port:Container_Port  : 映射到指定地址的指定端口

Local_IP::Container_Port   :映射到指定地址,但是宿主机端口是随机分配的

3、指定传输协议

 二、端口暴露

三、容器互联

四、Dokcer 网络模式

1、Host模式

2、container模式

3、none模式

4、bridge模式

5、Overlay模式


网络是激活Docker体系的唯一途径,如果Docker没有比较出色的容器网络,那么Docker根本没有如今的竞争力,起初Docker网络的解决方案并不理想,但是经过最近几年的发展,再加上很多云计算服务商都参与了进来,大批的SDN方案如雨后春笋般的冒了出来。

要使docker用必须安装docker-ce、阿里云镜像加速器

  1. [root@localhost ~]# wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo
  2. [root@localhost ~]# yum -y install yum-utils device-mapper-persistent-data lvm2
  3. [root@localhost ~]# yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
  4. [root@localhost ~]# ls /etc/yum.repos.d/
  5. backup Centos-aliyun.repo CentOS-Media.repo docker-ce.repo
  6. [root@localhost ~]# yum -y install docker-ce
  7. [root@localhost ~]# systemctl start docker
  8. [root@localhost ~]# systemctl enable docker

阿里云镜像加速器

  1. [root@localhost ~]# cat << END > /etc/docker/daemon.json
  2. {
  3. "registry-mirrors":[ "https://nyakyfun.mirror.aliyuncs.com" ]
  4. }
  5. END
  6. [root@localhost ~]# systemctl daemon-reload
  7. [root@localhost ~]# systemctl restart docker
  8. [root@localhost ~]# docker version
  9. Client: Docker Engine - Community
  10. Version: 19.03.8
  11. API version: 1.40
  12. Go version: go1.12.17

一、Docker网络基础

Docker目前对单节点的设备提供了将容器端口映射到宿主机和容器互联两个网络服务。

1、端口映射

在Docker中容器默认是无法与外部通信的,需要在启动命令中加入对应的参数才允许容器与外界通信。

         当Docker中运行一个Web服务时,需要把容器内的Web服务应用程序端口映射到本地宿主机的端口。这样,用户访问宿主机指定的端口的话,就相当于访问容器内部的Web服务端口。

使用-P选项时Docker会随机映射一个端口至容器内部的开放端口
  1. [root@docker ~]# docker run -d -P --name test1 nginx
  2. WARNING: IPv4 forwarding is disabled. Networking will not work.

使用docker port可以查看端口映射情况

  1. [root@docker ~]# docker port test1
  2. 80/tcp -> 0.0.0.0:32769
使用docker logs查看Nginx的日志
  1. [root@docker ~]# docker logs test1
  2. /docker-entrypoint.sh: /docker-entrypoint.d/ is not empty, will attempt to perform configuration
  3. /docker-entrypoint.sh: Looking for shell scripts in /docker-entrypoint.d/
  4. /docker-entrypoint.sh: Launching /docker-entrypoint.d/10-listen-on-ipv6-by-default.sh
查看映射的随机端口范围 
  1. [root@docker ~]# cat /proc/sys/net/ipv4/ip_local_port_range
  2. 32768 60999

 2、使用-p可以指定要映射到的本地端口。
Local_Port:Container_Port   : 端口映射参数中指定了宿主机的8000映射到容器内部的80端口,可以多次使用-p选项
  1. [root@docker ~]# docker run -d -p 8000:80 --name test2 nginx
  2. ac67353b3b7cb03dc4e602f96fce3129e1c0ddd9df448e5ca57ee823e9a28270

 这种方式会映射到所有接口地址,所有访客都可以通过宿主机所有IP的端口来访问容器。

Local_IP:Local_Port:Container_Port  : 映射到指定地址的指定端口
  1. [root@docker ~]# docker run -d -p 192.168.242.149:9000:80 --name test3 nginx
  2. d9fc60875684382100d7f5b72e1ed162c3da5485cf986e58a95300772f290741

Local_IP::Container_Port   :映射到指定地址,但是宿主机端口是随机分配的
  1. [root@docker ~]# docker run -d -p 192.168.147.136::80 --name test4 nginx
  2. aff7c8fcfe4a9502f79a24fd6e73405e7b3478c87a24cd01da1995f23d56814c
  3. [root@docker ~]# docker port test4
  4. 80/tcp -> 192.168.147.136:32768

3、指定传输协议
  1. [root@docker ~]# docker run -d -p 80:80/tcp --name test5 nginx
  2. ec2744d3fdece31e9d1e8b549e5e4751ffaadefd6d9ec73598693a5475e06374
  3. [root@docker ~]# docker port test5
  4. 80/tcp -> 0.0.0.0:80
  5. [root@docker ~]# docker run -d -p 81:81/udp --name test6 nginx
  6. cee3168bf8426607c83188f883bd4f0b57e75074c4122e0fdc9e2c2df22d3d6e
  7. [root@docker ~]# docker port test6
  8. 81/udp -> 0.0.0.0:81

 

 二、端口暴露

咱们之前讲过EXPOSE命令用于端口暴露,很多人会把端口暴露和端口映射混为一谈。端口暴露才能端口映射,目前有两种方式用于端口暴露,--expose和EXPOSE方式,这两种方式作用相同,但是--expose可以接受端口范围作为参数,例如--expose=2000~3000。

Dockerfile的作者一般在包含EXPOSE规则时都只提示哪个端口提供哪个服务。访问时还需要运维人员通过端口映射来指定。--expose和EXPOSE只是为其他命令提供所需信息的元数据。

通过docker inspect container_name查看网络配置:

  1. [root@docker ~]# docker inspect test1
  2. "Bridge": "",
  3. "SandboxID": "a194c54925b8fa848b4b5ac4ce34b307b58420f26b5e497af9a65cf31401a763",
  4. "HairpinMode": false,
  5. "LinkLocalIPv6Address": "",
  6. "LinkLocalIPv6PrefixLen": 0,
  7. "Ports": {
  8. "80/tcp": [
  9. {
  10. "HostIp": "0.0.0.0",
  11. "HostPort": "32769"
  12. }
  13. ]
  14. },

三、容器互联

容器互联是除了端口映射外另一种可以与容器通信的方式。端口映射的用途是宿主机网络与容器的通信,而容器互联是容器之间的通信。

当前实现容器互联有两种方式,一种是把两个容器放进一个用户自定义的网络中,另一种是使用--link参数(已经弃用,即将删除的功能)。

         为什么要使用一个单独的网络来连接两个容器呢?设想一下后端容器需要调用一个数据库环境,数据库容器和后端服务容器如果使用上下文中的暴露端口或者映射端口来通信,势必会把数据库的端口也暴露在外网中,导致数据库容器的安全性大大降低,为了解决这个问题,docker允许用户建立一个独立的网络来放置相应的容器,只有在该网络中的容器才能相互通信,外部容器是无法进入这个特定网络中的。

         一个容器可以同时加入多个网络,使用不同地址可以访问不同网络中的容器。

用户自定义的网络

首先创建两个容器,命名为container1和container2

  1. [root@docker ~]# docker run -itd --name=container1 busybox
  2. 1fdfabd7dda4b94c897fb2c177c83b40d42bfe8646500206a53bcb0f15c49675
  3. [root@docker ~]# docker run -itd --name=container2 busybox
  4. 7cf69cf901388b2946c43adbec1efa62cca428f485e8d9188d07c4e774e7c051

接下来创建一个独立的容器网络,这里使用bridge驱动(桥接模式),其他可选的值还有overlay和macvlan。

  1. [root@docker ~]# docker network create -d bridge --subnet 172.25.0.0/16 demo_net
  2. 27728db882c0b710d6be8541698120b46dd9b7b7f2e467cc9618c4bb33b4e264
  3. [root@docker ~]# docker network ls
  4. NETWORK ID NAME DRIVER SCOPE
  5. d43919472f6e bridge bridge local
  6. 5b09991235f8 compose_lnmp_lnmp bridge local
  7. 27728db882c0 demo_net bridge local
  8. 4775c0103fa3 host host local
  9. 973d096cf292 none null local

使用--subnet和--gateway可以指定子网和网关,现在我们把container2加入到demo_net中

  1. [root@docker ~]# docker network connect demo_net container2
  2. [root@docker ~]# docker network inspect demo_net
  3. "Internal": false,
  4. "Attachable": false,
  5. "Containers": {
  6. "7cf69cf901388b2946c43adbec1efa62cca428f485e8d9188d07c4e774e7c051": {
  7. "Name": "container2",
  8. "EndpointID": "7e183d8d78c5b5fbac7a18eff0f442a0c27f0d902811aa6fb20467ab606f8e7d",
  9. "MacAddress": "02:42:ac:19:00:02",
  10. "IPv4Address": "172.25.0.2/16",
  11. "IPv6Address": ""
  12. }

 使用docker network inspect可以查看网络中容器的连接状态。Container2已经在demo_net网络中,注意IP地址使自动分配的。

启动第三个容器

  1. [root@docker ~]# docker run --network=demo_net --ip=172.25.3.3 -itd --name=container3 busybox
  2. 8a1d1481874c0a0de0bb6fd285b20b1f0543ecccbf7d0c32b5b08e2c7c4ef37b
  3. [root@docker ~]# docker network inspect demo_net
  4. "Containers": {
  5. "7cf69cf901388b2946c43adbec1efa62cca428f485e8d9188d07c4e774e7c051": {
  6. "Name": "container2",
  7. "EndpointID": "7e183d8d78c5b5fbac7a18eff0f442a0c27f0d902811aa6fb20467ab606f8e7d",
  8. "MacAddress": "02:42:ac:19:00:02",
  9. "IPv4Address": "172.25.0.2/16",
  10. "IPv6Address": ""
  11. },
  12. "8a1d1481874c0a0de0bb6fd285b20b1f0543ecccbf7d0c32b5b08e2c7c4ef37b": {
  13. "Name": "container3",
  14. "EndpointID": "f3c940312e8f9e7a646931adda6e8a791b8f9ca2264378826abf8358d6e3c88f",
  15. "MacAddress": "02:42:ac:19:03:03",
  16. "IPv4Address": "172.25.3.3/16",
  17. "IPv6Address": ""

查看三个容器内部的网络

  1. [root@docker ~]# docker exec -it container2 ifconfig
  2. eth0 Link encap:Ethernet HWaddr 02:42:AC:11:00:09
  3. inet addr:172.17.0.9 Bcast:0.0.0.0 Mask:255.255.0.0
  4. inet6 addr: fe80::42:acff:fe11:9/64 Scope:Link
  5. UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
  6. RX packets:10 errors:0 dropped:0 overruns:0 frame:0
  7. TX packets:8 errors:0 dropped:0 overruns:0 carrier:0
  8. collisions:0 txqueuelen:0
  9. RX bytes:796 (796.0 B) TX bytes:656 (656.0 B)
  10. eth1 Link encap:Ethernet HWaddr 02:42:AC:19:00:02
  11. inet addr:172.25.0.2 Bcast:0.0.0.0 Mask:255.255.0.0
  12. inet6 addr: fe80::42:acff:fe19:2/64 Scope:Link
  13. UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
  14. RX packets:24 errors:0 dropped:0 overruns:0 frame:0
  15. TX packets:8 errors:0 dropped:0 overruns:0 carrier:0
  16. collisions:0 txqueuelen:0
  17. RX bytes:1968 (1.9 KiB) TX bytes:656 (656.0 B)
  18. lo Link encap:Local Loopback
  19. inet addr:127.0.0.1 Mask:255.0.0.0
  20. inet6 addr: ::1/128 Scope:Host
  21. UP LOOPBACK RUNNING MTU:65536 Metric:1
  22. RX packets:0 errors:0 dropped:0 overruns:0 frame:0
  23. TX packets:0 errors:0 dropped:0 overruns:0 carrier:0
  24. collisions:0 txqueuelen:1000
  25. RX bytes:0 (0.0 B) TX bytes:0 (0.0 B)
  26. [root@docker ~]# docker exec -it container3 ifconfig
  27. eth0 Link encap:Ethernet HWaddr 02:42:AC:19:03:03
  28. inet addr:172.25.3.3 Bcast:0.0.0.0 Mask:255.255.0.0
  29. inet6 addr: fe80::42:acff:fe19:303/64 Scope:Link
  30. UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
  31. RX packets:8 errors:0 dropped:0 overruns:0 frame:0
  32. TX packets:8 errors:0 dropped:0 overruns:0 carrier:0
  33. collisions:0 txqueuelen:0
  34. RX bytes:656 (656.0 B) TX bytes:656 (656.0 B)
  35. lo Link encap:Local Loopback
  36. inet addr:127.0.0.1 Mask:255.0.0.0
  37. inet6 addr: ::1/128 Scope:Host
  38. UP LOOPBACK RUNNING MTU:65536 Metric:1
  39. RX packets:0 errors:0 dropped:0 overruns:0 frame:0
  40. TX packets:0 errors:0 dropped:0 overruns:0 carrier:0
  41. collisions:0 txqueuelen:1000
  42. RX bytes:0 (0.0 B) TX bytes:0 (0.0 B)
  43. [root@docker ~]# docker exec -it container2 ping 172.17.0.2
  44. PING 172.17.0.2 (172.17.0.2): 56 data bytes
  45. 64 bytes from 172.17.0.2: seq=0 ttl=64 time=0.062 ms
  46. 64 bytes from 172.17.0.2: seq=1 ttl=64 time=0.139 ms
  47. 64 bytes from 172.17.0.2: seq=2 ttl=64 time=0.156 ms
  48. ^C
  49. --- 172.17.0.2 ping statistics ---
  50. 3 packets transmitted, 3 packets received, 0% packet loss
  51. round-trip min/avg/max = 0.062/0.119/0.156 ms
  52. [root@docker ~]# docker exec -it container2 ping 172.25.3.3
  53. PING 172.25.3.3 (172.25.3.3): 56 data bytes
  54. 64 bytes from 172.25.3.3: seq=0 ttl=64 time=0.084 ms
  55. 64 bytes from 172.25.3.3: seq=1 ttl=64 time=0.158 ms
  56. ^C
  57. --- 172.25.3.3 ping statistics ---
  58. 2 packets transmitted, 2 packets received, 0% packet loss
  59. round-trip min/avg/max = 0.084/0.121/0.158 ms

使用link参数

容器的连接(linking)系统是除了端口映射外另一种可以与容器中应用进行交互的方式。它会在源和接收容器之间创建一个隧道,接收容器可以看到源容器指定的信息。

使用这个参数容器必须设置一个名字,也就是--name指定的值。

  1. [root@docker ~]# docker run -itd --name test busybox
  2. 03f11be7e04e6a378393a87f1c1711519ca7b264c416153dbc3ec18b2a047441

--link参数的格式: --link name:alias , 其中name是要链接的容器的名称,alias是这个链接的别名。

  1. [root@docker ~]# docker run -itd --name=link --link test:test busybox
  2. e35a7be4bdbd733d32fa6287fb3e89012dce4765f040f104262e2fc6702d0b78
  3. [root@docker ~]# docker exec -it link ping test
  4. PING test (172.17.0.10): 56 data bytes
  5. 64 bytes from 172.17.0.10: seq=0 ttl=64 time=0.146 ms
  6. 64 bytes from 172.17.0.10: seq=1 ttl=64 time=0.156 ms
  7. ^C
  8. --- test ping statistics ---
  9. 2 packets transmitted, 2 packets received, 0% packet loss
  10. round-trip min/avg/max = 0.146/0.151/0.156 ms

如果忘记设置名字可以通过docker rename来重命名容器,容器名字是唯一的。

此外--link还可以传递环境变量,实现在两个容器之间共享环境变量。

四、Dokcer 网络模式

 安装Docker时会自动创建3个网络,可以使用docker network ls命令列出这些网络。

  1. [root@docker ~]# docker network ls
  2. NETWORK ID NAME DRIVER SCOPE
  3. d43919472f6e bridge bridge local
  4. 4775c0103fa3 host host local
  5. 973d096cf292 none null local

我们在使用docker run创建容器时,可以用--net选项指定容器的网络模式,Docker有以下4种网络模式:

  1. Host模式,使用--net=host指定。
  2. Container模式,使用--net=container:NAME_or_ID指定。
  3. None模式,使用--net=none指定。
  4. Bridge模式,使用--net=bridge指定,默认设置。
1、Host模式

Docker底层使用了Linux的Namespaces技术来进行资源隔离,如PID Namespace隔离进程,Mount Namespace隔离文件系统,Network Namespace隔离网络等。一个Network Namespace提供了一份独立的网络环境,包括网卡、路由、Iptables规则等都与其他的Network Namespace隔离。一个Docker容器一般会分配一个独立的Network Namespace。但如果启动容器的时候使用host模式,那么这个容器将不会获得一个独立的Network Namespace,而是和宿主机共用一个Root Network Namespace。容器将不会虚拟出自己的网卡,配置自己的IP等,而是使用宿主机的IP和端口。出于安全考虑不推荐使用这种网络模式。

我们在192.168.200.111/24的机器上用Host模式启动一个含有WEB应用的Docker容器,监听TCP 80端口。当我们在容器中执行任何类似ifconfig命令查看网络环境时,看到的都是宿主机上的信息。而外界访问容器中的应用,则直接使用192.168.200.111:80即可,不用任何NAT转换,就如直接跑在宿主机中一样。但是,容器的其他方面,如文件系统、进程列表等还是和宿主机隔离的。

  1. [root@docker ~]# docker run -itd --net=host --name=host busybox
  2. 52745f141d91e43ad425929cf7b36e767b9959374d4e437dcf297ad57ae26d22
  3. [root@docker ~]# docker exec -it host ifconfig
  4. br-27728db882c0 Link encap:Ethernet HWaddr 02:42:0B:04:5C:41
  5. inet addr:172.25.0.1 Bcast:0.0.0.0 Mask:255.255.0.0
  6. inet6 addr: fe80::42:bff:fe04:5c41/64 Scope:Link
  7. UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
  8. RX packets:90 errors:0 dropped:0 overruns:0 frame:0
  9. TX packets:11 errors:0 dropped:0 overruns:0 carrier:0
  10. collisions:0 txqueuelen:0
  11. RX bytes:7080 (6.9 KiB) TX bytes:782 (782.0 B)
  12. br-5b09991235f8 Link encap:Ethernet HWaddr 02:42:37:68:60:CD
  13. inet addr:172.18.0.1 Bcast:0.0.0.0 Mask:255.255.0.0
  14. inet6 addr: fe80::42:37ff:fe68:60cd/64 Scope:Link
  15. UP BROADCAST MULTICAST MTU:1500 Metric:1
  16. RX packets:112 errors:0 dropped:0 overruns:0 frame:0
  17. TX packets:75 errors:0 dropped:0 overruns:0 carrier:0
  18. collisions:0 txqueuelen:0
  19. RX bytes:9769 (9.5 KiB) TX bytes:8464 (8.2 KiB)
  20. docker0 Link encap:Ethernet HWaddr 02:42:18:18:54:E5
  21. inet addr:172.17.0.1 Bcast:0.0.0.0 Mask:255.255.0.0
  22. inet6 addr: fe80::42:18ff:fe18:54e5/64 Scope:Link
  23. UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
  24. RX packets:283686 errors:0 dropped:0 overruns:0 frame:0
  25. TX packets:449286 errors:0 dropped:0 overruns:0 carrier:0
  26. collisions:0 txqueuelen:0
  27. RX bytes:11712586 (11.1 MiB) TX bytes:1156721473 (1.0 GiB)
  28. ens33 Link encap:Ethernet HWaddr 00:0C:29:F3:73:15
  29. inet addr:192.168.147.136 Bcast:192.168.147.255 Mask:255.255.255.0
  30. inet6 addr: fe80::146a:2496:1fdc:4014/64 Scope:Link
  31. UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
  32. RX packets:207612 errors:0 dropped:0 overruns:0 frame:0
  33. TX packets:62363 errors:0 dropped:0 overruns:0 carrier:0
  34. collisions:0 txqueuelen:1000
  35. RX bytes:250150907 (238.5 MiB) TX bytes:9453140 (9.0 MiB)
  36. ens36 Link encap:Ethernet HWaddr 00:0C:29:F3:73:1F
  37. inet addr:192.168.242.149 Bcast:192.168.242.255 Mask:255.255.255.0
  38. inet6 addr: fe80::c96f:4c57:35a2:1a70/64 Scope:Link
  39. UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
  40. RX packets:1038861 errors:0 dropped:0 overruns:0 frame:0
  41. TX packets:379009 errors:0 dropped:0 overruns:0 carrier:0
  42. collisions:0 txqueuelen:1000
  43. RX bytes:1526767771 (1.4 GiB) TX bytes:23155635 (22.0 MiB)
  44. lo Link encap:Local Loopback
  45. inet addr:127.0.0.1 Mask:255.0.0.0
  46. inet6 addr: ::1/128 Scope:Host
  47. UP LOOPBACK RUNNING MTU:65536 Metric:1
  48. RX packets:153 errors:0 dropped:0 overruns:0 frame:0
  49. TX packets:153 errors:0 dropped:0 overruns:0 carrier:0
  50. collisions:0 txqueuelen:1000
  51. RX bytes:20535 (20.0 KiB) TX bytes:20535 (20.0 KiB)
  52. veth1b51205 Link encap:Ethernet HWaddr BA:E7:EB:5F:A9:A1
  53. inet6 addr: fe80::b8e7:ebff:fe5f:a9a1/64 Scope:Link
  54. UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
  55. RX packets:17 errors:0 dropped:0 overruns:0 frame:0
  56. TX packets:36 errors:0 dropped:0 overruns:0 carrier:0
  57. collisions:0 txqueuelen:0
  58. RX bytes:1482 (1.4 KiB) TX bytes:2792 (2.7 KiB)
  59. veth2169c93 Link encap:Ethernet HWaddr 8A:EC:07:67:69:26
  60. inet6 addr: fe80::88ec:7ff:fe67:6926/64 Scope:Link
  61. UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
  62. RX packets:37 errors:0 dropped:0 overruns:0 frame:0
  63. TX packets:112 errors:0 dropped:0 overruns:0 carrier:0
  64. collisions:0 txqueuelen:0
  65. RX bytes:4507 (4.4 KiB) TX bytes:9274 (9.0 KiB)

    

  1. [root@docker ~]# ifconfig
  2. br-27728db882c0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500
  3. inet 172.25.0.1 netmask 255.255.0.0 broadcast 0.0.0.0
  4. inet6 fe80::42:bff:fe04:5c41 prefixlen 64 scopeid 0x20<link>
  5. ether 02:42:0b:04:5c:41 txqueuelen 0 (Ethernet)
  6. RX packets 8 bytes 656 (656.0 B)
  7. RX errors 0 dropped 0 overruns 0 frame 0
  8. TX packets 45 bytes 3490 (3.4 KiB)
  9. TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
  10. br-5b09991235f8: flags=4099<UP,BROADCAST,MULTICAST> mtu 1500
  11. inet 172.18.0.1 netmask 255.255.0.0 broadcast 0.0.0.0
  12. inet6 fe80::42:37ff:fe68:60cd prefixlen 64 scopeid 0x20<link>
  13. ether 02:42:37:68:60:cd txqueuelen 0 (Ethernet)
  14. RX packets 17 bytes 1482 (1.4 KiB)
  15. RX errors 0 dropped 0 overruns 0 frame 0
  16. TX packets 36 bytes 2792 (2.7 KiB)
  17. TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
  18. docker0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500
  19. inet 172.17.0.1 netmask 255.255.0.0 broadcast 0.0.0.0
  20. inet6 fe80::42:18ff:fe18:54e5 prefixlen 64 scopeid 0x20<link>
  21. ether 02:42:18:18:54:e5 txqueuelen 0 (Ethernet)
  22. RX packets 283686 bytes 11712586 (11.1 MiB)
  23. RX errors 0 dropped 0 overruns 0 frame 0
  24. TX packets 449286 bytes 1156721473 (1.0 GiB)
  25. TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
  26. ens33: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500
  27. inet 192.168.147.136 netmask 255.255.255.0 broadcast 192.168.147.255
  28. inet6 fe80::146a:2496:1fdc:4014 prefixlen 64 scopeid 0x20<link>
  29. ether 00:0c:29:f3:73:15 txqueuelen 1000 (Ethernet)
  30. RX packets 207635 bytes 250152587 (238.5 MiB)
  31. RX errors 0 dropped 0 overruns 0 frame 0
  32. TX packets 62382 bytes 9465432 (9.0 MiB)
  33. TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
  34. ens36: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500
  35. inet 192.168.242.149 netmask 255.255.255.0 broadcast 192.168.242.255
  36. inet6 fe80::c96f:4c57:35a2:1a70 prefixlen 64 scopeid 0x20<link>
  37. ether 00:0c:29:f3:73:1f txqueuelen 1000 (Ethernet)
  38. RX packets 1038876 bytes 1526768671 (1.4 GiB)
  39. RX errors 0 dropped 0 overruns 0 frame 0
  40. TX packets 379009 bytes 23155635 (22.0 MiB)
  41. TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
  42. lo: flags=73<UP,LOOPBACK,RUNNING> mtu 65536
  43. inet 127.0.0.1 netmask 255.0.0.0
  44. inet6 ::1 prefixlen 128 scopeid 0x10<host>
  45. loop txqueuelen 1000 (Local Loopback)
  46. RX packets 153 bytes 20535 (20.0 KiB)
  47. RX errors 0 dropped 0 overruns 0 frame 0
  48. TX packets 153 bytes 20535 (20.0 KiB)
  49. TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
  50. veth1b51205: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500
  51. inet6 fe80::b8e7:ebff:fe5f:a9a1 prefixlen 64 scopeid 0x20<link>
  52. ether ba:e7:eb:5f:a9:a1 txqueuelen 0 (Ethernet)
  53. RX packets 17 bytes 1482 (1.4 KiB)
  54. RX errors 0 dropped 0 overruns 0 frame 0
  55. TX packets 36 bytes 2792 (2.7 KiB)
  56. TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
  57. veth2169c93: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500
  58. inet6 fe80::88ec:7ff:fe67:6926 prefixlen 64 scopeid 0x20<link>
  59. ether 8a:ec:07:67:69:26 txqueuelen 0 (Ethernet)
  60. RX packets 37 bytes 4507 (4.4 KiB)
  61. RX errors 0 dropped 0 overruns 0 frame 0
  62. TX packets 112 bytes 9274 (9.0 KiB)
  63. TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
2、container模式

这个模式可以指定新创建的容器和已经存在的一个容器共享一个Network Namespace,而不是和宿主机共享。新创建的容器不会创建自己的网卡,配置自己的IP,而是和一个指定的容器共享IP、端口范围等。同样,两个容器除了网络方面,其他的如文件系统、进程列表等还是隔离的。两个容器的进程可以通过lo网卡设备通信。

使用--net=container:container_id/container_name,多个容器使用共同的网络看到的ip是一样的。

  1. [root@docker ~]# docker run -itd --name=con1 busybox
  2. 3021151461b87b7e10a3e5bc19258422bc93c1cd76b6f12dc1fefd5d34787a58
  3. [root@docker ~]# docker exec -it con1 ifconfig
  4. eth0 Link encap:Ethernet HWaddr 02:42:AC:11:00:0C
  5. inet addr:172.17.0.12 Bcast:0.0.0.0 Mask:255.255.0.0
  6. inet6 addr: fe80::42:acff:fe11:c/64 Scope:Link
  7. UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
  8. RX packets:8 errors:0 dropped:0 overruns:0 frame:0
  9. TX packets:8 errors:0 dropped:0 overruns:0 carrier:0
  10. collisions:0 txqueuelen:0
  11. RX bytes:656 (656.0 B) TX bytes:656 (656.0 B)
  12. lo Link encap:Local Loopback
  13. inet addr:127.0.0.1 Mask:255.0.0.0
  14. inet6 addr: ::1/128 Scope:Host
  15. UP LOOPBACK RUNNING MTU:65536 Metric:1
  16. RX packets:0 errors:0 dropped:0 overruns:0 frame:0
  17. TX packets:0 errors:0 dropped:0 overruns:0 carrier:0
  18. collisions:0 txqueuelen:1000
  19. RX bytes:0 (0.0 B) TX bytes:0 (0.0 B)

 

  1. [root@docker ~]# docker run -itd --net=container:con1 --name=con2 busybox
  2. c66cb6ccae7e1b7360278eb071cd734d89c76eb2cacb9b7beb281753d653ab62
  3. [root@docker ~]# docker exec -it con2 ifconfig
  4. eth0 Link encap:Ethernet HWaddr 02:42:AC:11:00:0C
  5. inet addr:172.17.0.12 Bcast:0.0.0.0 Mask:255.255.0.0
  6. inet6 addr: fe80::42:acff:fe11:c/64 Scope:Link
  7. UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
  8. RX packets:8 errors:0 dropped:0 overruns:0 frame:0
  9. TX packets:8 errors:0 dropped:0 overruns:0 carrier:0
  10. collisions:0 txqueuelen:0
  11. RX bytes:656 (656.0 B) TX bytes:656 (656.0 B)
  12. lo Link encap:Local Loopback
  13. inet addr:127.0.0.1 Mask:255.0.0.0
  14. inet6 addr: ::1/128 Scope:Host
  15. UP LOOPBACK RUNNING MTU:65536 Metric:1
  16. RX packets:0 errors:0 dropped:0 overruns:0 frame:0
  17. TX packets:0 errors:0 dropped:0 overruns:0 carrier:0
  18. collisions:0 txqueuelen:1000
  19. RX bytes:0 (0.0 B) TX bytes:0 (0.0 B)
3、none模式

在这种模式下,Docker容器拥有自己的Network Namespace,但是并不为Docker容器进行任何网络配置。也就是说,这个Docker容器没有网卡、IP、路由等信息。需要我们自己为Docker容器添加网卡、配置IP等。

使用--net=none指定,这种模式下不会配置任何网络。

  1. [root@docker ~]# docker run -itd --name=none --net=none busybox
  2. 4f8c9d711c3b0c60a2a79b76cb925945f7ba10658c363567ffe2aca216da0778
  3. [root@docker ~]# docker exec -it none ifconfig
  4. lo Link encap:Local Loopback
  5. inet addr:127.0.0.1 Mask:255.0.0.0
  6. inet6 addr: ::1/128 Scope:Host
  7. UP LOOPBACK RUNNING MTU:65536 Metric:1
  8. RX packets:0 errors:0 dropped:0 overruns:0 frame:0
  9. TX packets:0 errors:0 dropped:0 overruns:0 carrier:0
  10. collisions:0 txqueuelen:1000
  11. RX bytes:0 (0.0 B) TX bytes:0 (0.0 B)
4、bridge模式

bridge模式是Docker默认的网络设置,属于一种NAT网络模型,Docker daemon在启动的时候就会建立一个docker0网桥(通过-b参数可以指定),每个容器使用bridge模式启动时,Docker都会为容器创建一对虚拟网络接口(veth pair)设备,这对接口一端在容器的Network Namespace,另一端在docker0,这样就实现了容器与宿主机之间的通信。

 在bridge模式下,Docker容器与外部网络通信都是通过iptables规则控制的,这也是Docker网络性能低下的一个重要原因。使用iptables -vnL -t nat可以查看NAT表,在Chain Docker中可以看到容器桥接的规则。

  1. [root@docker ~]# iptables -vnL -t nat
  2. Chain DOCKER (2 references)
  3. pkts bytes target prot opt in out source destination
  4. 0 0 RETURN all -- br-27728db882c0 * 0.0.0.0/0 0.0.0.0/0
  5. 0 0 RETURN all -- docker0 * 0.0.0.0/0 0.0.0.0/0
  6. 0 0 RETURN all -- br-5b09991235f8 * 0.0.0.0/0 0.0.0.0/0
  7. 2 104 DNAT tcp -- !docker0 * 0.0.0.0/0 0.0.0.0/0 tcp dpt:32769 to:172.17.0.2:80
  8. 4 208 DNAT tcp -- !docker0 * 0.0.0.0/0 0.0.0.0/0 tcp dpt:8000 to:172.17.0.3:80
  9. 2 104 DNAT tcp -- !docker0 * 0.0.0.0/0 192.168.242.149 tcp dpt:9000 to:172.17.0

 

5、Overlay模式

这是Docker原生的跨主机多子网的网络模型,当创建一个新的网络时,Docker会在主机上创建一个Network Namespace,Network Namespace内有一个网桥,网桥上有一个vxlan接口,每个网络占用一个vxlan ID,当容器被添加到网络中时,Docker会分配一对veth网卡设备,与bridge模式类似,一端在容器里面,另一端在本地的Network Namespace中。

         容器A、B、C都在主机A上面,而容器D、E则在主机B上面,现在通过Overlay网络模型可以实现容器A、B、D处于同一个子网,而容器C、E则处于另一个子网中。

 

Overlay中有一个vxlan ID,值得范围为256~1000,vxlan隧道会把每一个ID相同的网络沙盒连接起来实现一个子网。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Gausst松鼠会/article/detail/229485
推荐阅读
相关标签
  

闽ICP备14008679号