-
docker-node1
和docer-node2
是 Etcd 的成员,并且都安装了 Docker -
redis-client
和redis
分别是宿主机docker-node1
和docer-node2
的容器实例 - 每个 Docker 宿主机上,都创建了名为
overlay_net
的overlay network
宿主机操作系统: CentOS Linux release 7.6.1810 (Core)
Docker CE:
Version: 18.09.0
API version: 1.39 (minimum version 1.12)
下面就来一步一步的实现。
1. 搭建Etcd Cluster
这里仅仅是为了演示Doker 夸主机通信目的而搭建及其简单的 Etcd 集群,不可用于生产。
简单介绍
这将调出etcd侦听端口2379以进行客户端通信,并在端口2380上进行服务器到服务器通信。
etcd是一个分布式可靠的键值存储,用于分布式系统的最关键数据,重点是:
- 简单:面向用户定义明确的API(gRPC)
- 安全:具有可选客户端证书身份验证的自动TLS
- 快速:基准测试10,000次/秒
- 可靠:使用Raft正确分布
etcd是用Go编写的,使用Raft一致性算法来管理高度可用的复制日志。
Etcd 的监听端口
-
2380
用于集群成员之间的通信 -
2379
用于监听客户端的请求
下载
官方提供了二进制包 https://github.com/etcd-io/etcd/releases/
可以根据自己的系统进行有选择的下载。
本测试环境下载的是适合 Linux 64位系统环境的包
Etcd 机器信息
主机名 | IP |
---|---|
docker-node1 | 192.168.60.10 |
docker-node2 | 192.168.60.20 |
a. docker-node1
的操作
下载解压
[vagrant@docker-node1 ~]$ wget https://github.com/etcd-io/etcd/releases/download/v3.3.10/etcd-v3.3.10-linux-amd64.tar.gz
[vagrant@docker-node1 ~]$ tar -xf etcd-v3.3.10-linux-amd64.tar.gz
[vagrant@docker-node1 ~]$ cd etcd-v3.3.10-linux-amd64/
[vagrant@docker-node1 etcd-v3.3.10-linux-amd64]$
后台启动运行
[vagrant@docker-node2 etcd-v3.3.10-linux-amd64]$ export NODE1_IP=192.168.60.10
[vagrant@docker-node2 etcd-v3.3.10-linux-amd64]$ export NODE2_IP=192.168.60.20
[vagrant@docker-node2 etcd-v3.3.10-linux-amd64]$ export NODE1_NAME=docker-node1
[vagrant@docker-node2 etcd-v3.3.10-linux-amd64]$ export NODE2_NAME=docker-node2
[vagrant@docker-node1 etcd-v3.3.10-linux-amd64]$ nohup ./etcd \
--name ${NODE1_NAME} \
--initial-advertise-peer-urls http://${NODE1_IP}:2380 \
--listen-peer-urls http://${NODE1_IP}:2380 \
--listen-client-urls http://${NODE1_IP}:2379,http://127.0.0.1:2379 \
--advertise-client-urls http://${NODE1_IP}:2379 \
--initial-cluster-token etcd-cluster-1 \
--initial-cluster ${NODE1_NAME}=http://${NODE1_IP}:2380,${NODE2_NAME}=http://${NODE2_IP}:2380 \
--initial-cluster-state new &
- –name 节点名称
- –initial-advertise-peer-urls 告知集群其他节点自己的URL,tcp2380端口用于集群通信
- –listen-peer-urls 监听URL,用于与其他节点通讯
- –advertise-client-urls 告知客户端的URL,tcp2379端口用于监听客户端请求
- –initial-cluster-token 集群的ID
- --initial-cluster-token # 集群 token,用于成员之间认证
- –initial-cluster 集群中所有节点
- –initial-cluster-state 集群状态,new为新创建集群,existing为已存在的集群
b. docker-node2
的操作
下载解压
[vagrant@docker-node2 ~]$ wget https://github.com/etcd-io/etcd/releases/download/v3.3.10/etcd-v3.3.10-linux-amd64.tar.gz
[vagrant@docker-node2 ~]$ tar -xf etcd-v3.3.10-linux-amd64.tar.gz
[vagrant@docker-node2 ~]$ cd etcd-v3.3.10-linux-amd64/
后台启动运行
[vagrant@docker-node2 etcd-v3.3.10-linux-amd64]$ export NODE1_IP=192.168.60.10
[vagrant@docker-node2 etcd-v3.3.10-linux-amd64]$ export NODE2_IP=192.168.60.20
[vagrant@docker-node2 etcd-v3.3.10-linux-amd64]$ export NODE1_NAME=docker-node1
[vagrant@docker-node2 etcd-v3.3.10-linux-amd64]$ export NODE2_NAME=docker-node2
[vagrant@docker-node2 etcd-v3.3.10-linux-amd64]$ nohup ./etcd \
--name ${NODE2_NAME} \
--initial-advertise-peer-urls http://${NODE2_IP}:2380 \
--listen-peer-urls http://${NODE2_IP}:2380 \
--listen-client-urls http://${NODE2_IP}:2379,http://127.0.0.1:2379 \
--advertise-client-urls http://${NODE2_IP}:2379 \
--initial-cluster-token etcd-cluster-1 \
--initial-cluster ${NODE1_NAME}=http://${NODE1_IP}:2380,${NODE2_NAME}=http://${NODE2_IP}:2380 \
--initial-cluster-state new &
集群健康检查
分别在每个成员中执行如下命令
[vagrant@docker-node2 etcd-v3.3.10-linux-amd64]$ ./etcdctl cluster-health
member d860400699ce61e is healthy: got healthy result from http://192.168.60.10:2379
member f96c6ec64b2090e3 is healthy: got healthy result from http://192.168.60.20:2379
cluster is healthy
[vagrant@docker-node2 etcd-v3.3.10-linux-amd64]$
返回 cluster is healthy
说明正常。
查看集群成员
在任意节点上运行
[vagrant@docker-node2 etcd-v3.3.10-linux-amd64]$ ./etcdctl member list
d860400699ce61e: name=docker-node1 peerURLs=http://192.168.60.10:2380 clientURLs=http://192.168.60.10:2379 isLeader=true
f96c6ec64b2090e3: name=docker-node2 peerURLs=http://192.168.60.20:2380 clientURLs=http://192.168.60.20:2379 isLeader=false
集群正常后,接下来就可以对 Docker 进行配置了
关于 Etcd 的更多配置参考官方文档
2. 配置 Docker 使用 Etcd
分别在两台宿主机上停止 dockerd 服务。
这里一 systemd
为例
sudo systemctl stop docker
docker-node1
上执行
sudo dockerd -H tcp://0.0.0.0:2375 -H unix:///var/run/docker.sock --cluster-store=etcd://${NODE1_IP}:2379 --cluster-advertise=${NODE1_IP}:2375 &
docker-node2
上执行
sudo dockerd -H tcp://0.0.0.0:2375 -H unix:///var/run/docker.sock --cluster-store=etcd://${NODE2_IP}:2379 --cluster-advertise=${NODE2_IP}:2375 &
在其中的一个节点上创建 overlay network
- 这里我在
docker-node1
上创建名字为:overlay_net
的覆盖网络
docker@docker-node1:~$ docker network create -d overlay overlay_net
833aa03d003739bf1f5802f8c1ebe0ae617e02e46b09000c03b348b66e1e27c5
docker@docker-node1:~$ docker network inspect overlay_net
[
{
"Name": "overlay_net",
"Id": "833aa03d003739bf1f5802f8c1ebe0ae617e02e46b09000c03b348b66e1e27c5",
"Created": "2018-12-16T01:52:28.046320149Z",
"Scope": "global",
"Driver": "overlay",
"EnableIPv6": false,
"IPAM": {
"Driver": "default",
"Options": {},
"Config": [
{
"Subnet": "10.0.0.0/24",
"Gateway": "10.0.0.1"
}
]
},
"Internal": false,
"Attachable": false,
"Ingress": false,
"ConfigFrom": {
"Network": ""
},
"ConfigOnly": false,
"Containers": {},
"Options": {},
"Labels": {}
}
]
- 之后在
docker-node2
上查看网络信息
docker@docker-node2:~$ docker network ls
NETWORK ID NAME DRIVER SCOPE
31e870259bb0 bridge bridge local
ee8cec8939af host host local
8d6c3e3ceb94 none null local
833aa03d0037 overlay_net overlay global
docker@docker-node2:~$
可以看到在一个节点上创建的网络信息,可以同步到集群中的所有节点上。
运行容器并将其连接到 overlay_net
网络中
-
docker-node1
运行容器redis-client
docker@docker-node1:~$ sudo docker run -itd --rm --name=redis-client --network=overlay_net python:3.6-alpine
65bc05e3801242b2e917775d079a15272a926dab0e38b8039564f50547bef770
ERRO[0000] enabling default vlan on bridge br0 failed open /sys/class/net/br0/bridge/default_pvid: permission denied
ERRO[2018-12-16T01:59:00.903303768Z] reexec to set bridge default vlan failed exit status 1
INFO[0839] shim containerd-shim started address="/containerd-shim/moby/65bc05e3801242b2e917775d079a15272a926dab0e38b8039564f50547bef770/shim.sock" debug=false pid=4668
这里的错误信息暂时没解决
-
docker-node2
运行容器redis
docker@docker-node2:~$ sudo docker run -itd --rm --name=redis --network=overlay_net redis:alpine
58b6cf076675f005d0a0d944fd85762bfe0a6e0bf8a63f94fac3e65d9f74e955
ERRO[0000] enabling default vlan on bridge br0 failed open /sys/class/net/br0/bridge/default_pvid: permission denied
ERRO[2018-12-16T01:59:56.673683047Z] reexec to set bridge default vlan failed exit status 1
INFO[0781] shim containerd-shim started address="/containerd-shim/moby/58b6cf076675f005d0a0d944fd85762bfe0a6e0bf8a63f94fac3e65d9f74e955/shim.sock" debug=false pid=4729
- 在
docker-node2
进入容器redis
测试连通性
docker@docker-node2:~$ docker exec -it redis sh
/data # ping redis-client
PING redis-client (10.0.0.2): 56 data bytes
64 bytes from 10.0.0.2: seq=0 ttl=64 time=0.989 ms
64 bytes from 10.0.0.2: seq=1 ttl=64 time=0.702 ms
^C
--- redis-client ping statistics ---
2 packets transmitted, 2 packets received, 0% packet loss
round-trip min/avg/max = 0.702/0.845/0.989 ms
- 在
docker-node1
进入容器redis-client
测试连通性
docker@docker-node1:~$ docker exec -it redis-client sh
/ # ping redis
PING redis (10.0.0.3): 56 data bytes
64 bytes from 10.0.0.3: seq=0 ttl=64 time=0.998 ms
64 bytes from 10.0.0.3: seq=1 ttl=64 time=0.657 ms
^C
--- redis ping statistics ---
2 packets transmitted, 2 packets received, 0% packet loss
round-trip min/avg/max = 0.657/0.827/0.998 ms
- 最后在容器
redis-client
中安装python3
用的redis
模块,并且进行端口连通性测试
/ # pip3 install redis
Collecting redis
Downloading https://files.pythonhosted.org/packages/f5/00/5253aff5e747faf10d8ceb35fb5569b848cde2fdc13685d42fcf63118bbc/redis-3.0.1-py2.py3-none-any.whl (61kB)
100% |████████████████████████████████| 71kB 115kB/s
Installing collected packages: redis
Successfully installed redis-3.0.1
/ # python3
Python 3.6.7 (default, Nov 16 2018, 06:52:39)
[GCC 6.4.0] on linux
Type "help", "copyright", "credits" or "license" for more information.
>>> import redis
>>> r = redis.Redis(host="redis", port=6379)
>>> r.set("name", "shark")
True
>>> r.get("name")
b'shark'
>>> exit()
/ # exit
docker@docker-node1:~$