kubeadm 搭建K8s高可用集群

引子

目前,kubeadm 已经支持了搭建高可用的 Kubernetes 集群,大大降低了搭建的难度,官方的文档也非常地简洁明了,但是还是有些坑点,下面我就将我的操作记录下。

架构

k8s-ha.png

Master节点上只要运行一下三个服务:

  • kube-apiserver: 无状态的,需要通过LB来实现高可用。
  • kube-controller-manager: 自带leader-elected功能,kubeadm初始化时,默认 --leader-elect=true;
  • kube-scheduler: 自带leader-elected功能,kubeadm初始化时,默认 --leader-elect=true;

环境说明

  • OS: Ubuntu 16.04
  • Kubernetes: 1.9
  • CNI Network: Calico
  • 节点信息:
Hostname IP 备注
k8s-master-01 192.168.4.24
k8s-master-02 192.168.4.25
k8s-master-03 192.168.4.26
k8s-node-01 192.168.4.27 kubernetes 工作节点
lb-haproxy 192.168.4.40 通过 haproxy 来实现 kube-api 的 LB

前置准备

开始之前,请确保你有个能翻墙的环境,推荐使用 shadowsocket,并开启 http proxy。

1. LB 准备

开源的LB实现有很多,比如 ipvs, nginx, haproxy等等。在选型时,请注意,这是我踩的第一个坑,我刚开始选用的方案是 ipvs 的 DR 模式来实现一个四层的负载均衡,请看下面的流程:

master kube-proxy -> LB -> master

# 等同于,这在ipvs DR下是有问题的,因为master是ipvs后端实际的负载,它上面有条路由是:route add -host $vip lo:0, $vip的路由被直接发送到了Loopback接口了;

master kube-proxy -> master

后来该用 haproxy 来实现,就没有问题了,安装步骤就略过,给个我自己的最简单配置:

haproxy.cfg

########## Kube-API LB #####################
listen kube-api-lb
bind 0.0.0.0:6443
mode tcp
balance roundrobin
server k8s-master-01 192.168.4.24:6443 weight 1 maxconn 10000 check inter 10s
server k8s-master-02 192.168.4.25:6443 weight 1 maxconn 10000 check inter 10s
server k8s-master-03 192.168.4.26:6443 weight 1 maxconn 10000 check inter 10s

######## stast ############################
listen admin_stats
bind 0.0.0.0:8099
mode http
option httplog
maxconn 10
stats refresh 30s
stats uri /stats

2. 关闭 swap 分区

swapoff -a

#要永久禁掉swap分区,打开如下文件注释掉swap那一行
vi /etc/fstab

3. 开启 http_proxy

后续安装 kubeadm 等资源都需要翻墙,这里需要开命令行下开启代理:

export http_proxy="http://192.168.4.18:1080"
export https_proxy="http://192.168.4.18:1080"
export no_proxy="192.168.4.24,192.168.4.25,192.168.4.26,127.0.0.1"

4. ETCD 集群

我这里 etcd 集群没有开启TLS的支持,需要的可以参考官方的文档。这里还需要注意下,如何你想查看下 kubernetes 或者 calico 存在 etcd 中的内容,请使用api3的版本:export ETCDCTL_API=3, 不然你使用etcdctl ls /来查看是没有任何内容的。

下载 etcd 二进制包:

export ETCD_VERSION=v3.1.10
curl -sSL https://github.com/coreos/etcd/releases/download/${ETCD_VERSION}/etcd-${ETCD_VERSION}-linux-amd64.tar.gz | tar -xzv --strip-components=1 -C /usr/local/bin/
rm -rf etcd-$ETCD_VERSION-linux-amd64*

配置启动脚本:

# node1
touch /etc/etcd.env
echo "PEER_NAME=k8s-master-01" >> /etc/etcd.env
echo "PRIVATE_IP=192.168.4.24" >> /etc/etcd.env

# node2
touch /etc/etcd.env
echo "PEER_NAME=k8s-master-02" >> /etc/etcd.env
echo "PRIVATE_IP=192.168.4.25" >> /etc/etcd.env

# node3
touch /etc/etcd.env
echo "PEER_NAME=k8s-master-03" >> /etc/etcd.env
echo "PRIVATE_IP=192.168.4.26" >> /etc/etcd.env
cat >/etc/systemd/system/etcd.service <<EOL
[Unit]
Description=etcd
Documentation=https://github.com/coreos/etcd
Conflicts=etcd.service
Conflicts=etcd2.service

[Service]
EnvironmentFile=/etc/etcd.env
Type=notify
Restart=always
RestartSec=5s
LimitNOFILE=40000
TimeoutStartSec=0

ExecStart=/usr/local/bin/etcd --name ${PEER_NAME} \
    --data-dir /var/lib/etcd \
    --listen-client-urls http://${PRIVATE_IP}:2379,http://127.0.0.1:2379 \
    --advertise-client-urls http://${PRIVATE_IP}:2379 \
    --listen-peer-urls http://${PRIVATE_IP}:2380 \
    --initial-advertise-peer-urls http://${PRIVATE_IP}:2380 \
    --initial-cluster k8s-master-01=http://192.168.4.24:2380,k8s-master-02=http://192.168.4.25:2380,k8s-master-03=http://192.168.4.26:2380 \
    --initial-cluster-token my-etcd-token \
    --initial-cluster-state new

[Install]
WantedBy=multi-user.target
EOL

启动:

systemctl daemon-reload
systemctl start etcd

检查集群运行状态:

etcdctl cluster-health 

5. Docker Daemon

docker的版本貌似也有要求:

On each of your machines, install Docker. Version v1.12 is recommended, but v1.11, v1.13 and 17.03 are known to work as well. Versions 17.06+ might work, but have not yet been tested and verified by the Kubernetes node team.

apt-get update
apt-get install -y docker.io=1.13.1-0ubuntu1~16.04.2

docker daemon使用http代理

mkdir -p /etc/systemd/system/docker.service.d
vim /etc/systemd/system/docker.service.d/http-proxy.conf

[Service]
Environment="HTTP_PROXY=http://192.168.4.18:1080"
Environment="HTTPS_PROXY=http://192.168.4.18:1080"
Environment="NO_PROXY=192.168.4.0/24"


systemctl daemon-reload
systemctl restart docker

6. 安装 kubeadm kubelet kubectl

apt-get update && apt-get install -y apt-transport-https
curl -s https://packages.cloud.google.com/apt/doc/apt-key.gpg | apt-key add -
cat <<EOF >/etc/apt/sources.list.d/kubernetes.list
deb http://apt.kubernetes.io/ kubernetes-xenial main
EOF
apt-get update
apt-get install -y kubelet kubeadm kubectl

建立 Master 节点

1. kubeadm init

通过配置文件进行初始化,这里需要注意的是: podSubnet 需要跟后面CNI网络保持一致;

cat >config.yaml <<EOL
apiVersion: kubeadm.k8s.io/v1alpha1
kind: MasterConfiguration
api:
  advertiseAddress: 192.168.4.24
etcd:
  endpoints:
  - http://192.168.4.24:2379
  - http://192.168.4.25:2379
  - http://192.168.4.26:2379
networking:
  podSubnet: 10.1.0.0/16
apiServerCertSANs:
- 192.168.4.24
- 192.168.4.25
- 192.168.4.26
- 192.168.4.27
- 192.168.4.40
apiServerExtraArgs:
  endpoint-reconciler-type: lease
EOL
kubeadm init --config=config.yaml

2. 拷贝证书

待第一个master节点完成初始化后,将/etc/kubernetes/pki目录下的所有文件拷贝至其他两个节点。

同上步骤,其他两个节点使用kubeadm init --config=config.yaml来完成初始化。

3. 配置kubectl的配置文件

mkdir -p $HOME/.kube
cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
chown $(id -u):$(id -g) $HOME/.kube/config

如果是 root 用户:

export KUBECONFIG=/etc/kubernetes/admin.conf

4. 准备CNI网络

kubernetes 前提是需要Pod能跨主机通讯,这里我选择的方案是Calico, 在CNI网络没有准备好之前,Master节点的状态为NotReady。我这是使用上面的etcd集群作为calico的存储,更多请参考calico Standard Hosted Install

注意: 这里又一个坑点来了,kubeadm初始化的Master默认是不允许调度Pod的, Calico的node却使用DaemonSet来部署的,所以我们先要把这个限制给去掉先, Master节点通过taints来限制的,更多请参考: https://kubernetes.io/docs/concepts/configuration/taint-and-toleration/:

去除限制:

kubectl taint nodes k8s-master-01 node-role.kubernetes.io/master:NoSchedule-
kubectl taint nodes k8s-master-02 node-role.kubernetes.io/master:NoSchedule-
kubectl taint nodes k8s-master-03 node-role.kubernetes.io/master:NoSchedule-

建立 RBAC 的角色

https://docs.projectcalico.org/v3.0/getting-started/kubernetes/installation/hosted/hosted

通过calico.yaml部署CNI

wget https://docs.projectcalico.org/v3.0/getting-started/kubernetes/installation/hosted/calico.yaml

# calico.yaml 需要修改两个地方:
1. etcd_endpoints: "http://192.168.4.24:2379,http://192.168.4.25:2379,http://192.168.4.26:2379"
2. - name: CALICO_IPV4POOL_CIDR
     value: "10.1.0.0/16"   # 这个应该与kubeadm初始化文件config.yaml一致

kubectl apply -f calico.yaml

Master 节点加上Pod调度限制:

kubectl taint nodes k8s-master-01 node-role.kubernetes.io/master=:NoSchedule
kubectl taint nodes k8s-master-02 node-role.kubernetes.io/master=:NoSchedule
kubectl taint nodes k8s-master-03 node-role.kubernetes.io/master=:NoSchedule

Worker Node 节点

1. 准备

worker node上也需要安装docker damon, kubelet, kubeadm, kubectl, 具体请参考Master节点。

2. worker node join

kubeadm join --token a65269.b45f13a6e90114e3 192.168.4.24:6443 --discovery-token-ca-cert-hash sha256:f71fb0208c16a54d782a2a05f33d5b22a062ede8f14c901384e9020534dca169

3. 将kubep-proxy, kubelet的kube-api地址指向LB

kubectl get configmap -n kube-system kube-proxy -o yaml > kube-proxy.yaml
sudo sed -i 's#server:.*#server: https://<masterLoadBalancerFQDN>:6443#g' kube-proxy.yaml
kubectl apply -f kube-proxy.yaml --force

# restart all kube-proxy pods to ensure that they load the new configmap
kubectl delete pod -n kube-system -l k8s-app=kube-proxy


sudo sed -i 's#server:.*#server: https://<masterLoadBalancerFQDN>:6443#g' /etc/kubernetes/kubelet.conf
sudo systemctl restart kubelet

参考

https://kubernetes.io/docs/setup/independent/high-availability/

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 199,636评论 5 468
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 83,890评论 2 376
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 146,680评论 0 330
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 53,766评论 1 271
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 62,665评论 5 359
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,045评论 1 276
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,515评论 3 390
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,182评论 0 254
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,334评论 1 294
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,274评论 2 317
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,319评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,002评论 3 315
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,599评论 3 303
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,675评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,917评论 1 255
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,309评论 2 345
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 41,885评论 2 341