Centos7在线安装k8s

系统与版本

Centos7Docker 20.10.9kubernates 1.23.0

安装kubeadm
按照[官方的指引](https://kubernetes.io/zh/docs/setup/production-environment/tools/kubeadm/ ),我们选用`kubeadm`进行集群部署.
  1. 硬件条件

    内存2G,CPU2核

  2. 关闭firewall,iptables

    具体可以查看网上方法

  3. 允许 iptables 检查桥接流量

    cat <<EOF | sudo tee /etc/modules-load.d/k8s.conf
    br_netfilter
    EOF
    
    cat <<EOF | sudo tee /etc/sysctl.d/k8s.conf
    net.bridge.bridge-nf-call-ip6tables = 1
    net.bridge.bridge-nf-call-iptables = 1
    EOF
    sudo sysctl --system
    
  4. 关闭swap

    # 临时关闭,重启以后会重新开启
    swapoff -a
    # 检查是否关闭
    free -m
    # 如下关闭成功
    [root@localhost ~]# free -m
                  total        used        free      shared  buff/cache   available
    Mem:           1819         260        1268           9         290        1406
    Swap:             0           0           0
    
    vi /etc/fstab
    #
    # /etc/fstab
    # Created by anaconda on Wed Sep  1 15:01:27 2021
    #
    # Accessible filesystems, by reference, are maintained under '/dev/disk'
    # See man pages fstab(5), findfs(8), mount(8) and/or blkid(8) for more info
    #
    UUID=e95686df-e97a-409f-968e-df388b13a239 /                       xfs     defaults        0 0
    UUID=3f5292fa-ab79-4e86-b036-27be00d2d84e /boot                   xfs     defaults        0 0
    # 注释掉swap
    #UUID=e2fd5a6a-0422-43b4-b3d3-c57c50c89b84 swap                    swap    defaults        0 0
    # 保存
    wq
    # 重启主机
    # 检查是否关闭
    free -m
    # 如下固化关闭成功
    [root@localhost ~]# free -m
                  total        used        free      shared  buff/cache   available
    Mem:           1819         260        1268           9         290        1406
    Swap:             0           0           0
    
  5. 安装kubeadm

    cat <<EOF | sudo tee /etc/yum.repos.d/kubernetes.repo
    [kubernetes]
    name=Kubernetes
    # 注意该处我们使用阿里云的镜像源
    #baseurl=https://packages.cloud.google.com/yum/repos/kubernetes-el7-\$basearch
    baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-\$basearch
    enabled=1
    gpgcheck=1
    repo_gpgcheck=1
    #gpgkey=https://packages.cloud.google.com/yum/doc/yum-key.gpg https://packages.cloud.google.com/yum/doc/rpm-package-key.gpg
    gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
    exclude=kubelet kubeadm kubectl
    EOF
    
    # 将 SELinux 设置为 permissive 模式(相当于将其禁用)
    sudo setenforce 0
    sudo sed -i 's/^SELINUX=enforcing$/SELINUX=permissive/' /etc/selinux/config
    
    sudo yum install -y kubelet kubeadm kubectl --disableexcludes=kubernetes
    
    sudo systemctl enable --now kubelet
    
  6. 配置host(选做,如果不做,以后的操作使用IP操作)

    $ vi /etc/hosts
    192.168.234.129     k8s-master
    192.168.234.130     k8s-node1
    192.168.234.131     k8s-node2
    #保存
    $ wq
    
  7. 初始化k8s集群

    1. 集群资源分配

      角色 IP
      master 192.168.234.129
      node1 192.168.234.130
      node2 192.168.234.131
    2. 确认各主机中kubelet处于正常运行(选做,kubeadm init初始化失败时排错 )

      $ systemctl status kubelet # 查看状态,如果没开启就要开启
      ● kubelet.service - kubelet: The Kubernetes Node Agent
         Loaded: loaded (/usr/lib/systemd/system/kubelet.service; enabled; vendor preset: disabled)
        Drop-In: /usr/lib/systemd/system/kubelet.service.d
                 └─10-kubeadm.conf
         Active: active (running) since 六 2021-12-11 14:30:05 CST; 2s ago
           Docs: https://kubernetes.io/docs/
       Main PID: 10469 (kubelet)
          Tasks: 11
         Memory: 26.3M
         CGroup: /system.slice/kubelet.service
                 └─10469 /usr/bin/kubelet
      

      kubelet不是启动状态,使用journalctl -xeu kubelet命令检查启动失败原因

      1. kubelet cgroup driver: "systemd" is different from docker cgroup

        上述原因是由于kubelet cgroup driver与docker cgroup driver不匹配,可以修改docker的cgroup driver与k8s的一致。

        编辑/etc/docker/daemon.json,加入以下配置

        {
            ...
            "exec-opts": ["native.cgroupdriver=systemd"]
            ...
        }
        
        # 刷新配置
        systemctl daemon-reload
        # 重启docker
        systemctl restart docker
        # 重启kubelet
        systemctl restart kubelet
        
    3. 在master节点运行

      # 注意,其中--image-repository指定初始化下载的镜像,--v=6开启详细日志打印
      $ kubeadm init \
      --image-repository=registry.aliyuncs.com/google_containers \
      --apiserver-advertise-address=192.168.234.129 \
      --kubernetes-version v1.23.0 \
      --service-cidr=192.166.0.0/16 \
      --pod-network-cidr=192.167.0.0/16 \
      --v=6
      
      # --image-repository镜像加速
      # --apiserver-advertise-address 直接使用当前master主机地址
      # --kubernetes-version k8s版本,可以不指定,缺省情况会用最新的
      # --service-cidr k8s中的service网络地址,不可与主机,pod网络地址重复
      # --pod-network-cidr pod网络地址,不可与主机,service网络地址重读,与后面的Calico相关
      # --v,日志等级,5级以上会打印更详细的日志,方便差错
      
      #以下输出表示初始化完成
      
      Your Kubernetes control-plane has initialized successfully!
      
      To start using your cluster, you need to run the following as a regular user:
      
        mkdir -p $HOME/.kube
        sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
        sudo chown $(id -u):$(id -g) $HOME/.kube/config
      
      Alternatively, if you are the root user, you can run:
      
        export KUBECONFIG=/etc/kubernetes/admin.conf
      
      You should now deploy a pod network to the cluster.
      Run "kubectl apply -f [podnetwork].yaml" with one of the options listed at:
        https://kubernetes.io/docs/concepts/cluster-administration/addons/
      
      Then you can join any number of worker nodes by running the following on each as root:
      
      kubeadm join 192.168.234.129:6443 --token pptc23.2kyz3xmu5ehv4j3p \
        --discovery-token-ca-cert-hash sha256:fe9b576d3a52502ef46d09010cfc14cb6dfc4fdb885873ebf09cf8be7950f5b3
      
    4. 配置kubectl

      mkdir -p $HOME/.kube
      sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
      sudo chown $(id -u):$(id -g) $HOME/.kube/config
      
    5. 安装Calico(CNI)

      # 直接使用Calico远程配置文件,也可将文件上传至服务器安装
      $ curl https://docs.projectcalico.org/manifests/calico.yaml -O
      $ kubectl apply -f calico.yaml
      
    6. node节点加入集群

      $ kubeadm join 192.168.234.129:6443 --token pptc23.2kyz3xmu5ehv4j3p \
        --discovery-token-ca-cert-hash sha256:fe9b576d3a52502ef46d09010cfc14cb6dfc4fdb885873ebf09cf8be7950f5b3
      
      # 表示加入成功
      [preflight] Running pre-flight checks
      [preflight] Reading configuration from the cluster...
      [preflight] FYI: You can look at this config file with 'kubectl -n kube-system get cm kubeadm-config -o yaml'
      [kubelet-start] Writing kubelet configuration to file "/var/lib/kubelet/config.yaml"
      [kubelet-start] Writing kubelet environment file with flags to file "/var/lib/kubelet/kubeadm-flags.env"
      [kubelet-start] Starting the kubelet
      [kubelet-start] Waiting for the kubelet to perform the TLS Bootstrap...
      
      This node has joined the cluster:
      * Certificate signing request was sent to apiserver and a response was received.
      * The Kubelet was informed of the new secure connection details.
      
      Run 'kubectl get nodes' on the control-plane to see this node join the cluster.
      
    7. 配置节点角色

      $ kubectl get nodes 
      NAME         STATUS   ROLES                  AGE     VERSION
      k8s-master   Ready    control-plane,master   23m     v1.23.0
      k8s-node1    Ready    <none>                 9m43s   v1.23.0
      k8s-node2    Ready    <none>                 7m41s   v1.23.0
      # 发现节点ROLES是<none>
      $ kubectl label nodes k8s-node1 node-role.kubernetes.io/node=
      $ kubectl label nodes k8s-node2 node-role.kubernetes.io/node=
      # 再次运行
      $ kubectl get nodes
      NAME         STATUS   ROLES                  AGE   VERSION
      k8s-master   Ready    control-plane,master   25m   v1.23.0
      k8s-node1    Ready    node                   12m   v1.23.0
      k8s-node2    Ready    node                   10m   v1.23.0
      
  8. 验证集群是否正常

    apiVersion: apps/v1
    kind: Deployment
    metadata:
      name: app-demo
      labels:
        app: app-demo
    spec:
      replicas: 3
      template:
        metadata:
          name: app-demo
          labels:
            app: nginx-demo
        spec:
          containers:
            - name: nginx-demo
              image: nginx:stable-alpine
              imagePullPolicy: IfNotPresent
              ports:
                - containerPort: 80
          restartPolicy: Always
      selector:
        matchLabels:
          app: nginx-demo
    ---
    apiVersion: v1
    kind: Service
    metadata:
      name: nginx-svr
    spec:
      selector:
        app: nginx-demo
      ports:
        - protocol: TCP
          port: 10080
          targetPort: 80
          nodePort: 30080
      type: NodePort
    ---
    apiVersion: v1
    kind: Namespace
    metadata:
      name: ns-nginx
      labels:
        name: ns-nginx
    
    $ kubectl apply -f .
    $ kubectl get pods -o wide
    # 已经被分别部署到两个节点上,也能看到pod IP段是正常的
    NAME                        READY   STATUS    RESTARTS   AGE     IP                NODE        NOMINATED NODE   READINESS GATES
    app-demo-6ffbbc8f85-96fwg   1/1     Running   0          2m44s   192.167.36.65     k8s-node1   <none>           <none>
    app-demo-6ffbbc8f85-pw4fw   1/1     Running   0          2m44s   192.167.169.130   k8s-node2   <none>           <none>
    app-demo-6ffbbc8f85-rc2pb   1/1     Running   0          2m44s   192.167.169.129   k8s-node2   <none>           <none>
    

    浏览器分别访问三台主机,均可出现nginx表示集群部署成功

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,684评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,143评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,214评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,788评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,796评论 5 368
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,665评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,027评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,679评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 41,346评论 1 299
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,664评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,766评论 1 331
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,412评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,015评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,974评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,203评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,073评论 2 350
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,501评论 2 343

推荐阅读更多精彩内容