为了账号安全,请及时绑定邮箱和手机立即绑定

『中级篇』overlay网络和etcd实现多机的容器通信(31)

前面的课程主要集中在同一个docker,同一个linux机器,不同的容器之前是如何通信。这次主要说的不同机器之前如何通信。这篇的源码在:https://github.com/limingios/docker.git 中的docke/No.2/labs/flask-redis/

覆盖网络(overlay network<sup> [1]</sup>  )简单说来覆盖网络就是应用层网络,它是面向应用层的,不考虑或很少考虑网络层,物理层的问题,说白了就是2个不在一起的网络组成对应的网络,方便通信的方式。

这次按照上次讲解,做个多机器之前的通信 flask-redis 和redis 在不同的机器上

之前建立的docker-node1 和docker-node2 现在启动他们 看看他们之前是否可以ping通

  • 启动2个窗口,查看各自的ip 信息
  1. docker-node1
    vagrant ssh docker-node1
    ip a

  1. docker-node2
    vagrant ssh docker-node2
    ip a

  • 互相ping下
    #docker-node1 里面ping 172.28.128.4 直接访问node2
    ping 172.28.128.4
    #docker-node2 里面ping 172.28.128.3 直接访问node1
    ping 172.28.128.3

    说明这2个机器是互通的。

  • 现在我用docker内部的ip 互相ping

    也就是docker1的172.17.0.2 ping一下docker2的172.17.0.3 其实是ping不通的,因为他们不在同一个网络,如果想通信有没有方式,其实暴露端口的方式-p 也是可以的,还有一个更好的方式 就是通过vxlan的方式。

  • 什么是VXLAN?
    VXLAN-Virtual eXtensible Local Area Network(虚拟化可扩展局域网)
    VXLAN是NVO3(Network Virtualization over Layer3)中的一种网络虚拟化技术,通过将VM或物理服务器发出的数据包封装在UDP中,并使用物理网络的IP/MAC作为报文头进行封装,然后在IP网络上传输,到达目的地后由隧道终结点解封装并将数据发送给目标虚拟机或物理服务器。

这里不讲解VXLAN啦,我也不太熟悉,现在说的分布式存储的方式来完成docker1内部的容器和docker2内部的容器之间的通信。通过的技术是:etcd的分布式存储方式来完成。

etcd的2台机器安装

随着CoreOS和Kubernetes等项目在开源社区日益火热,它们项目中都用到的etcd组件作为一个高可用、强一致性的服务发现存储仓库,渐渐为开发人员所关注。在云计算时代,如何让服务快速透明地接入到计算集群中,如何让共享配置信息快速被集群中的所有机器发现,更为重要的是,如何构建这样一套高可用、安全、易于部署以及响应快速的服务集群,已经成为了迫切需要解决的问题。etcd为解决这类问题带来了福音。

  • 分布式主要就是为了多台机器,每个机器里面的容器分到的ip都不相同,这样让这些容器组织成一个网络的话,他们之前就可以进行通信了,因为ip和名称都是唯一的。不会带来冲突。
  1. docker-node1上安装etcd
    sudo yum -y install wget
    wget https://github.com/coreos/etcd/releases/download/v3.0.12/etcd-v3.0.12-linux-amd64.tar.gz
    tar zxvf etcd-v3.0.12-linux-amd64.tar.gz
    cd etcd-v3.0.12-linux-amd64
    #查看ip地址 172.28.128.3
    ip a

#注意ip地址的修改,不同的机器可能不相同。通过ip a查看
nohup ./etcd --name docker-node1 --initial-advertise-peer-urls http://172.28.128.3:2380 \
--listen-peer-urls http://172.28.128.3:2380 \
--listen-client-urls http://172.28.128.3:2379,http://127.0.0.1:2379 \
--advertise-client-urls http://172.28.128.3:2379 \
--initial-cluster-token etcd-cluster \
--initial-cluster docker-node1=http://172.28.128.3:2380,docker-node2=http://172.28.128.4:2380 \
--initial-cluster-state new&

  1. docker-node2 上安装etcd
    sudo yum -y install wget
    wget https://github.com/coreos/etcd/releases/download/v3.0.12/etcd-v3.0.12-linux-amd64.tar.gz
    tar zxvf etcd-v3.0.12-linux-amd64.tar.gz
    cd etcd-v3.0.12-linux-amd64
    #查看ip地址 172.28.128.4
    ip a

#注意ip地址的修改,不同的机器可能不相同。通过ip a查看
nohup ./etcd --name docker-node1 --initial-advertise-peer-urls http://172.28.128.4:2380 \
--listen-peer-urls http://172.28.128.4:2380 \
--listen-client-urls http://172.28.128.4:2379,http://127.0.0.1:2379 \
--advertise-client-urls http://172.28.128.4:2379 \
--initial-cluster-token etcd-cluster \
--initial-cluster docker-node1=http://172.28.128.3:2380,docker-node2=http://172.28.128.4:2380 \
--initial-cluster-state new&

  1. docker-node1 和 docker-node2 共同操作查看状态
    ./etcdctl cluster-heallth
    sudo service docker stop

  1. docker-node1 和docker-node2 分别操作
    • docker-node1
      sudo /usr/bin/dockerd -H tcp://0.0.0.0:2375 -H unix:///var/run/docker.sock --cluster-store=etcd://172.28.128.3:2379 --cluster-advertise=172.28.128.3:2375&
      exit
      vagrant ssh docker-node1
      sudo docker network ls
    • docker-node2
      sudo /usr/bin/dockerd -H tcp://0.0.0.0:2375 -H unix:///var/run/docker.sock --cluster-store=etcd://172.28.128.4:2379 --cluster-advertise=172.28.128.4:2375&
      exit
      vagrant ssh docker-node2
      sudo docker network ls

  • docker-node1

    sudo docker network create -d overlay demo
    sudo docker network ls
  • docker-node2
    #docker-node1创建了overlay网络后,node2也创建了。这是为什么呢?其实这就是etcd帮咱们做的。
    sudo docker network ls

  • docker-node1 查看网络信息
    sudo docker network inspect demo

创建连接demo网络的容器
  • 创建docker-node1内部的容器tes11t1
    sudo docker run -d --name tes11t1--net demo busybox sh -c "while true; do sleep 3600; done"
    sudo docker ps

image.png

  • 创建docker-node2内部的容器tes11t1
    
    #说有相同容器已经存在了,不允许创建。如果在同一台docker机器上不允许名称一样的,说明这2个docker-node1 和docker-node2 已经在同一个网络空间内了
    sudo docker run -d --name tes11t1--net demo busybox sh -c "while true; do sleep 3600; done"
更改一个名称,可以成功创建

sudo docker run -d --natme test111--net demo busybox sh -c "while true; do sleep 3600; done"
sudo docker ps


![](https://upload-images.jianshu.io/upload_images/11223715-8ee050cbc2aabcb4.png?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240)

![](https://upload-images.jianshu.io/upload_images/11223715-6ad6fca0ede688d3.png?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240)

* docker-node1中的容器,查看tes11t1的ip地址
``` bash
sudo docker exec tes11t1 ip a
  • docker-node2中的容器,查看tes11t1的ip地址
    sudo docker exec test111 ip a

image.png

  • 查看下demo的network

    sudo docker network inspect demo

  • 试试2个容器能否互相ping通
    docker-node2
    sudo docker exec test111 ping 10.0.0.2
    sudo docker exec test111 ping tes11t1

docker-node1

sudo docker exec tes11t1 ping 10.0.0.3
sudo docker exec tes11t1 ping test111

PS:本次通过第三方工具etcd分布式的方式完成2台机器,2个容器组件网络,实现相互的访问,这里只是通过ping的方式,如果按照上次说的 flask-redis,可以一台是redis 一台是flask 应该也是可以通信的。多机的方式基本就是这样。

点击查看更多内容
2人点赞

若觉得本文不错,就分享一下吧!

评论

作者其他优质文章

正在加载中
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦
今天注册有机会得

100积分直接送

付费专栏免费学

大额优惠券免费领

立即参与 放弃机会
意见反馈 帮助中心 APP下载
官方微信

举报

0/150
提交
取消