kubeadm部署高可用

kubeadm部署高可用

堆叠ETCD模型 这种方法需要更少的基础架构。etcd成员和控制平面节点位于同一位置。

https://kubernetes.io/zh/docs/setup/production-environment/tools/kubeadm/high-availability/

ETCD 是一个高可用的分布式键值数据库,可用于服务发现。ETCD 采用 raft 一致性算法,基于 Go 语言实现。etcd作为一个高可用键值存储系统,天生就是为集群化而设计的。由于Raft算法在做决策时需要多数节点的投票,所以etcd一般部署集群推荐奇数个节点,推荐的数量为3、5或者7个节点构成一个集群。

配置三台机器 kubeadm 的最低要求给主节点

角色 IP
master1 10.0.0.2
master2 10.0.0.3
master3 10.0.0.4
VIP(虚拟ip) 10.0.0.10

1.haproxy+keepalived

构建haproxy容器

cat >Dockerfile<<\EOF
FROM alpine:3.7
RUN apk add tzdata \
    && cp /usr/share/zoneinfo/Asia/Shanghai /etc/localtime \
    && echo "Asia/Shanghai" > /etc/timezone
RUN apk add --no-cache  haproxy
CMD ["haproxy","-f","/etc/haproxy/haproxy.cfg"]
EOF

docker build . -t haproxy:v1

主备启用haproxy容器

mkdir -p /usr/local/etc/haproxy/

cat >/usr/local/etc/haproxy/haproxy.cfg<<\EOF
global
#log 127.0.0.1 local0
log 127.0.0.1 local1 notice
maxconn 65535
chroot /var/lib/haproxy
user haproxy
group haproxy
#daemon

defaults
    log     global
    mode    tcp
    option  httplog
    option  dontlognull
    retries 3
    option redispatch
    timeout queue           1m
    timeout connect  50s
    timeout client  50s
    timeout server  50s
    timeout check           10s
    maxconn 102400

listen stats
        stats   enable
        bind    *:8081
        mode http
        option  httplog
        log     global
        maxconn 10
        stats   refresh 30s
        stats   uri /haproxy/stats
        stats   auth haproxy:haproxy9527
        stats   hide-version
#        stats   admin if TRUE

frontend fe_k8s_6444
  bind *:6444
  mode tcp
  log global
  option tcplog
  default_backend be_k8s_6443

backend be_k8s_6443
  mode tcp
  balance roundrobin
  server k8s-master01 10.0.0.2:6443  maxconn 4096  check  weight 1 check  inter 6s fall 3 rise 3
  server k8s-master02 10.0.0.3:6443  maxconn 4096  check  weight 1 check  inter s fall 3 rise 3
EOF



docker run  -d  --name haproxy  \
--restart=always \
--net=host  \
-v /usr/local/etc/haproxy/haproxy.cfg:/etc/haproxy/haproxy.cfg  \
haproxy:v1

平滑重启

docker kill -s HUP haproxy

构建keepalived容器


cat >Dockerfile<<\EOF
FROM alpine:3.7
RUN apk add tzdata \
    && cp /usr/share/zoneinfo/Asia/Shanghai /etc/localtime \
    && echo "Asia/Shanghai" > /etc/timezone
RUN apk add --no-cache  keepalived
CMD ["keepalived","-f","/etc/keepalived/keepalived.conf","-P","-l","-n"]
EOF

docker build . -t keepalived:v1

主备节点启动keepalive

mkdir -p /usr/local/etc/keepalived

cat >/usr/local/etc/keepalived/keepalived.conf<<EOF
global_defs {
    router_id lb01
}
vrrp_script chk_haproxy {
    script   "/bin/busybox nc -v -w 2 -z 127.0.0.1 6444 2>&1 | grep open"
    timeout 1
    interval 1   # check every 1 second
    fall 2       # require 2 failures for KO
    rise 2       # require 2 successes for OK
}
vrrp_instance VI_1 {
    state MASTER
    interface ens33
    virtual_router_id 50
    priority 100
    advert_int 1
    nopreempt           # 不抢占
    track_script {
        chk_haproxy
    }
    authentication {
        auth_type PASS
        auth_pass 123456
}
    virtual_ipaddress {
        10.0.0.10/24 dev ens33
    }
}
EOF
# state MASTER或BUCKUP
# priority 权重,备节点权重设置90,备要小于主节点

# 未设置weight时,weight默认值为0,此时当vrrp_script连续检测失败时,vrrp实例进入FAULT状态。会导致VIP转移
# nopreempt 不抢占,当节点不可用时,才漂移

docker run  -d  --name keepalived  \
--restart=always \
--net=host --cap-add=NET_ADMIN \
-v /usr/local/etc/keepalived/keepalived.conf:/etc/keepalived/keepalived.conf  \
keepalived:v1

2. kubeadm部署

要对kubeadm源代码修改 做证书年限更改的操作,所有机器

master1

mkdir /usr/local/kubernetes/manifests -p
cd /usr/local/kubernetes/manifests/

kubeadm config print init-defaults > kubeadm-config.yaml

#更改以下内容
  advertiseAddress: 10.0.0.2
  
imageRepository: registry.cn-hangzhou.aliyuncs.com/google_containers
  
kubernetesVersion: v1.19.2

  podSubnet: 192.168.0.0/16
  serviceSubnet: 10.96.0.0/12
  
#结尾添加:
---
apiVersion: kubeproxy.config.k8s.io/v1alpha1
kind: KubeProxyConfiguration
featureGates:
  SupportIPVSProxyMode: true
mode: ipvs

    
#在clusterName: kubernetes:下添加
controlPlaneEndpoint: "10.0.0.10:6444"


kubeadm init --config=kubeadm-config.yaml --upload-certs | tee kubeadm-init.log

wget https://kuboard.cn/install-script/calico/calico-3.13.1.yaml
kubectl apply -f calico-3.13.1.yaml

master2,master3

  kubeadm join 10.0.0.10:6444 --token abcdef.0123456789abcdef \
    --discovery-token-ca-cert-hash sha256:01c9edd09d8838d0b12ba6e043b72cb4f6814613ef5b857b62d6645b4397a11a \
    --control-plane --certificate-key fd5e0e7c3e78d718aa0c935e46423f96eb8420231ead56e4e5070c5090f0606a

node节点



kubeadm join 10.0.0.10:6444 --token abcdef.0123456789abcdef \
    --discovery-token-ca-cert-hash sha256:01c9edd09d8838d0b12ba6e043b72cb4f6814613ef5b857b62d6645b4397a11a

检查群集运行状况

kubectl get pods --all-namespaces

docker run --rm -it \
--net host \
-v /etc/kubernetes:/etc/kubernetes 0369cf4303ff etcdctl \
--cert /etc/kubernetes/pki/etcd/peer.crt \
--key /etc/kubernetes/pki/etcd/peer.key \
--cacert /etc/kubernetes/pki/etcd/ca.crt \
--endpoints https://10.0.0.2:2379 endpoint health --cluster

kubectl  get endpoints kube-controller-manager -n kube-system -o yaml

kubectl  get endpoints kube-scheduler -n kube-system -o yaml

3.kubeadm的etcd备份恢复

yum -y install etcd
cd /data/etcd/

# 在每个节点备份
ETCDCTL_API=3  etcdctl snapshot save snap.db \
--endpoints=https://127.0.0.1:2379 \
--cacert=/etc/kubernetes/pki/etcd/ca.crt \
--cert=/etc/kubernetes/pki/etcd/peer.crt \
--key=/etc/kubernetes/pki/etcd/peer.key

# 查看备份
ETCDCTL_API=3 etcdctl snapshot status snap.db

# 查看现有成员状态
ETCDCTL_API=3  etcdctl \
--endpoints='10.0.0.2:2379,10.0.0.3:2379,10.0.0.4:2379' \
--cacert=/etc/kubernetes/pki/etcd/ca.crt \
--cert=/etc/kubernetes/pki/etcd/peer.crt \
--key=/etc/kubernetes/pki/etcd/peer.key \
--write-out="table"  \
endpoint status 

# 剔除
ETCDCTL_API=3  etcdctl \
--endpoints='10.0.0.2:2379,10.0.0.3:2379,10.0.0.4:2379' \
--cacert=/etc/kubernetes/pki/etcd/ca.crt \
--cert=/etc/kubernetes/pki/etcd/peer.crt \
--key=/etc/kubernetes/pki/etcd/peer.key \
member remove a705d171b1d0bf1c

# 
# member add k8s-slave02  --peer-urls=http://10.0.0.4:2380
# member list


恢复

#1.先暂停kube-apiserver和etcd容器
mv /etc/kubernetes/manifests /etc/kubernetes/manifests.bak
mv /var/lib/etcd/ /var/lib/etcd.bak

#2.恢复
ETCDCTL_API=3 etcdctl \
snapshot restore snap.db \
--data-dir=/var/lib/etcd

#3.启动kube-apiserver和etcd容器
mv /etc/kubernetes/manifests.bak /etc/kubernetes/manifests

4.dashboard

github地址

yaml文件地址


mkdir /data/k8s-yaml/dashboard/ && cd  /data/k8s-yaml/dashboard/
# 需要网络可以访问
kubectl apply -f https://raw.githubusercontent.com/kubernetes/dashboard/v2.0.4/aio/deploy/recommended.yaml

# 查看是否已经在运行了
kubectl  get pod -n kubernetes-dashboard



# 新建sa,绑定权限
kubectl  create sa -name admin-user -n  kubernetes-dashboard 
kubectl create clusterrolebinding admin-user --clusterrole=cluster-admin \
--serviceaccount=kubernetes-dashboard:admin-user

# 获取token
kubectl -n kubernetes-dashboard describe secret \
$(kubectl -n kubernetes-dashboard get secret | grep admin-user | awk '{print $1}')


#1. 编辑kubernetes-dashboard,将里面的type: ClusterIP改为type: NodePort即可
#kubectl --namespace=kubernetes-dashboard edit service kubernetes-dashboard

#2.通过ingrees访问

通过ingress访问

cat dash-ingress.yaml
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:
  name: kubernetes-dashboard
  namespace: kubernetes-dashboard
  annotations:
    kubernetes.io/ingress.class: "nginx"
    # 开启use-regex,启用path的正则匹配
    nginx.ingress.kubernetes.io/use-regex: "true"
    nginx.ingress.kubernetes.io/rewrite-target: /
    # 默认为 true,启用 TLS 时,http请求会 308 重定向到https
    nginx.ingress.kubernetes.io/ssl-redirect: "true"
    # 默认为 http,开启后端服务使用 proxy_pass https://协议
    nginx.ingress.kubernetes.io/backend-protocol: "HTTPS"
spec:
  tls:
  - hosts:
    - dash.zs.com
    secretName: kubernetes-dashboard-certs
  rules:
  - host: dash.zs.com
    http:
      paths:
      - path: /
        pathType: Prefix
        backend:
          service:
            name: kubernetes-dashboard
            port:
              number: 443

# 简单的方法
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:
  name: kubernetes-dashboard
  namespace: kubernetes-dashboard
  annotations:
    nginx.ingress.kubernetes.io/backend-protocol: "HTTPS"
spec:
  rules:
  - host: dash.zs.com
    http:
      paths:
      - path: /
        pathType: Prefix
        backend:
          service:
            name: kubernetes-dashboard
            port:
              number: 443

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 206,214评论 6 481
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 88,307评论 2 382
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 152,543评论 0 341
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 55,221评论 1 279
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 64,224评论 5 371
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,007评论 1 284
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,313评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,956评论 0 259
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 43,441评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,925评论 2 323
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,018评论 1 333
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,685评论 4 322
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,234评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,240评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,464评论 1 261
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,467评论 2 352
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,762评论 2 345

推荐阅读更多精彩内容