您的位置:首页 > 运维架构 > Docker

docker的网络-单主机(三种原生网络)none、host、bridge

2021-02-12 13:12 906 查看

docker的网络分为:单主机、跨主机

这篇先说:单主机

我们先说一下docker的原生网络模式

网络模式 简介 优点  使用场景
none 空网络,没有网络 此网络与外界隔离,安全度非常高 适合公司内部生产密钥
host  容器与宿主机共享namespace 直接使用宿主机的网络,网络性能方面最好。  
bridge 此模式会为每一个容器分配、设置IP等,并将容器连接到一个docker0虚拟网桥,通过docker0网桥以及Iptables nat表配置与宿主机通信。    

 

1、none

none翻译过来就是没有的意思,就是没有网络,对于安全性完全与外界完全隔离。

创建none容器,只有一张lo网卡!

创建参数 --network  none

1 [root@node1 harbor]# docker run -it --name  none --network  none  busybox:latest
2 / # ip a
3 1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue qlen 1000
4     link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
5     inet 127.0.0.1/8 scope host lo
6        valid_lft forever preferred_lft forever

 

2、host

host翻译为主机,就是主机网络,大致意思就是和宿主机共用的网络;

容器使用host网络,不会去获取新的network namespace,而是和主机共用一个network namespace。

直接使用宿主机的IP、端口号。所以我们在使用host网络发布服务的时候,一定要注意端口冲突这个问题。

创建参数 --network host

[root@node1 harbor]# docker run -it --name host --network host busybox:latest
/ # ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue qlen 1000
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
valid_lft forever preferred_lft forever
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: ens33: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast qlen 1000
link/ether 00:50:56:22:6c:1c brd ff:ff:ff:ff:ff:ff
inet 192.168.1.1/24 brd 192.168.1.255 scope global ens33
valid_lft forever preferred_lft forever
inet6 fe80::5658:12c2:bb4f:b14e/64 scope link
valid_lft forever preferred_lft forever
3: virbr0: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc noqueue qlen 1000
link/ether 52:54:00:d7:f2:59 brd ff:ff:ff:ff:ff:ff
inet 192.168.122.1/24 brd 192.168.122.255 scope global virbr0
valid_lft forever preferred_lft forever
4: virbr0-nic: <BROADCAST,MULTICAST> mtu 1500 qdisc pfifo_fast master virbr0 qlen 1000
link/ether 52:54:00:d7:f2:59 brd ff:ff:ff:ff:ff:ff
5: docker0: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc noqueue
link/ether 02:42:34:a2:7d:a6 brd ff:ff:ff:ff:ff:ff
inet 172.17.0.1/16 brd 172.17.255.255 scope global docker0
valid_lft forever preferred_lft forever
inet6 fe80::42:34ff:fea2:7da6/64 scope link
valid_lft forever preferred_lft forever
8: br-ffb3d00df08f: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc noqueue
link/ether 02:42:93:76:c6:32 brd ff:ff:ff:ff:ff:ff
inet 172.18.0.1/16 brd 172.18.255.255 scope global br-ffb3d00df08f
valid_lft forever preferred_lft forever
inet6 fe 12b8 80::42:93ff:fe76:c632/64 scope link
valid_lft forever preferred_lft forever

我的宿主机IP为192.168.1.1,上述的网络配置和主机一模一样

使用场景:对网络传输有较高要求,不二选择!

 

3、bridge

在说这个桥接模式之前,了解一个词“网桥”

网桥:网桥又叫做桥接器,是连接两个局域网的一种存储/转发设备,它能将一个大的LAN分割为多个网段,或将两个以上的LAN互联为一个逻辑LAN,使LAN上的所有用户都可以访问服务器。

简单说一下:有点想交换机,但是有区别,具体了解自行查询资料。

正式了解桥接:

当Docker进程启动时,会在主机上创建一个名为docker0的虚拟网桥,此主机上启动的Docker容器会连接到这个虚拟网桥上。虚拟网桥的工作方式和物理交换机类似,这样主机上的所有容器就通过交换机连在了一个二层网络中。 从docker0子网中分配一个IP给容器使用,并设置docker0的IP地址为容器的默认网关。在主机上创建一对虚拟网卡veth pair设备,Docker将veth pair设备的一端放在新创建的容器中,并命名为eth0(容器的网卡),另一端放在主机中,以vethxxx这样类似的名字命名,并将这个网络设备加入到docker0网桥中。 图片了解:

创建参数:--network bridge

1 [root@node1 /]# docker run -it --name bridge --network bridge  busybox:latest
2 / # ip a
3 1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue qlen 1000
4     link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
5     inet 127.0.0.1/8 scope host lo
6        valid_lft forever preferred_lft forever
7 27: eth0@if28: <BROADCAST,MULTICAST,UP,LOWER_UP,M-DOWN> mtu 1500 qdisc noqueue
8     link/ether 02:42:ac:11:00:02 brd ff:ff:ff:ff:ff:ff
9     inet 172.17.0.2/16 brd 172.17.255.255 scope global eth0
10        valid_lft forever preferred_lft forever

了解:docker0默认的IP172.17.0.1,分配容器IP都是依此类推。

实操环节:< ad2 /p> 1、我们来自定义bridge网络

[root@node1 /]# docker network  create  -d bridge  net1    创建一个名为net1的bridge网络
44686c0ae4194a156c309a18d320d3497551900600b0ef28729152004d6cdf05
[root@node1 /]# docker network  ls  #查看当前网卡        
NETWORK ID     NAME            DRIVER    SCOPE
74f8ff66202b   bridge          bridge    local

创建基于net1的容器

[root@node1 /]# docker run -itd --name a1 --network net1 busybox:latest
026ff92c05a54803333313fe9da077bb47adb5e3cdb0183e86b5a93e4e350da6
[root@node1 /]# docker run -itd --name a2 --network net1 busybox:latest
cb77b215baff887714cd8a587b981d7e391c4237d95d45e97663d69bf958c2ce
[root@node1 /]# docker run -itd --name a3 --network net1 busybox:latest
125f031364a66c1568297fb8bbac890abcb8826de15cbf053471974603c965d6
#对于自定义网络的优点可以通过主机名进行ping

测试访问

[root@node1 /]# docker exec  -it a1 sh
/ # ping a2
PING a2 (172.19.0.3): 56 data bytes
64 bytes from 172.19.0.3: seq=0 ttl=64 time=0.065 ms
64 bytes from 172.19.0.3: seq=1 ttl=64 time=0.170 ms
^C
--- a2 <
2088
span style="color: rgba(0, 0, 255, 1)">ping statistics ---
2 packets transmitted, 2 packets received, 0% packet loss
round-trip min/avg/max = 0.065/0.117/0.170 ms
/ # ping a3
PING a3 (172.19.0.4): 56 data bytes
64 bytes from 172.19.0.4: seq=0 ttl=64 time=0.063 ms
64 bytes from 172.19.0.4: seq=1 ttl=64 time=0.058 ms
^C
--- a3 ping statistics ---
2 packets transmitted, 2 packets received, 0% packet loss
round-trip min/avg/max = 0.058/0.060/0.063 ms

 

2、我们来自定义bridge网络,且自定义网段与网关

自定义bridge网络

[root@node1 /]# docker network create -d bridge --subnet 172.20.16.0/24 --gateway 172.20.16.254 net2
c517433db7e3230c7faea88cf485e320a10d1a66b8f31e3cd9f2c3e84d4208a4

创建基于bridge网络的容器,指定IP为172.20.16.10、172.20.16.20

[root@node1 /]# docker run -itd --name a4 --network net2 --ip 172.20.16.10 busybox:latest
415193c1a428782b6689881b58e66565e38ec3e699484032ef754c92efd00609
[root@node1 /]# docker run -itd --name a5 --network net2 --ip 172.20.16.20 busybox:latest
6b304a044d60de792188e6bbc2fd414b8c98919413a7bc19a6b58ee7a4b89a9a

测试访问

[root@node1 /]# docker exec  -it a4 sh
/ # ping a5
PING a5 (172.20.16.20): 56 data bytes
64 bytes from 172.20.16.20: seq=0 ttl=64 time=0.079 ms
^C
--- a5 ping statistics ---
1 packets transmitted, 1 packets received, 0% packet loss
round-trip min/avg/max = 0.079/0.079/0.079 ms

 

内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: