记一次rancher导入yaml生成k8s异常

公司使用rancher来部署k8s集群,最近因为有一个新的项目开发完成需要搭建环境,因此我编写了k8s的yaml来导入到rancher中,生成一个测试环境,一个演示环境,测试环境用于测试,演示环境用于给客户演示。导入之后namespace等成功生成,测试环境没有问题,但是demo环境出现了问题。

在这里插入图片描述

demo环境的yaml如下:

---
apiVersion: apps/v1 #接口版本
kind: Deployment  #接口类型
metadata:
  name: xxxx-demo #Deployment名称
  namespace: xxxx-demo           #命名空间
spec:
  selector:
    matchLabels:
      app: xxxx
      tier: frontend
  replicas: 1
  strategy:
    rollingUpdate:  ##由于replicas为1,则整个升级,pod个数在2-4个之间
      maxSurge: 1      #滚动升级时会先启动1个pod
      maxUnavailable: 1 #滚动升级时允许的最大Unavailable的pod个数
  template:
    metadata:
      labels:
        app: xxxx
        tier: frontend
    spec:
      containers:
        - name: xxxx
          image: xxxxx.com:/xxxx-demo/xxxx
          env:
            - name: SPRING_PROFILE
              value: demo
          resources:
            requests:
              cpu: 200m
              memory: 200Mi
          ports:
            - containerPort: 8080
      imagePullSecrets:
        - name: xxxx
---
kind: Service
apiVersion: v1
metadata:
  name: xxxx-service
  namespace: xxxx-demo           #命名空间
spec:
  selector:
    app: xxxx-demo
  type: NodePort
  ports:                                 #service需要暴露的端口列表
    - name: string                         #端口名称
      protocol: TCP                     #端口协议,支持TCP和UDP,默认TCP
      port: 8080                            #服务监听的端口号
      targetPort: 8080                     #需要转发到后端Pod的端口号
      nodePort: 8080                        #当type = NodePort时,指定映射到物理机的端口号 The range of valid ports is 30000-32767
---

刚开始在namespace页面时看起来并没有什么问题,但是点击进入到工作负载页面后,在访问端口处展示的端口却是n/a。当时感觉不对,但是并没有在意,

在这里插入图片描述

查看pod日志,也能正常展示

在这里插入图片描述

但是通过接口进行访问时,却一直访问不到。经过多次排查,发现是因为yaml编写的问题


在这里插入图片描述

图中三处的APP名称必须保持一致,才能正常访问。

labels用来定位一个或多个资源,键值对方式进行定义,下方使用的selector会与这里的键值对对应,作为selector的挑选条件

matchlabels: ** 标签选择器,与上面的标签共用,这个部分是17版本开始加的,必须与上面的labels对应,选择包含标签app:xxxx的资源

Labels的重要性

在新版的k8s中labels是非常重要的

注意:
必须在 Deployment 中指定适当的选择器和 Pod 模板标签(在本例中为app: xxxx)。不要与其他控制器(包括其他Deployments 和状态设置)重叠标签或选择器。Kubernetes不会阻止重叠,如果多个控制器具有重叠的选择器,这些控制器可能会冲突并运行意外。

matchLabels/matchExpression作用

matchLabels用于定义一组Label,与直接写在Selector中作用相同,直接给定键值;

matchExpression用于定义一组基于集合的筛选条件,基于表达式来定义使用标签选择器,{key: “KEY”, operator:
“OPERATOR”, values:[VAL1,VAL2,…]}。

可用的条件运算符包括:

In、NotIn:values字段的值必须为非空列表。
Exists、DoesNotExist:values字段的值必须为空列表。

如果同时设置了matchLabels和matchExpression,则两组条件为“AND”关系,即所有条件需要满足才能完成Selector的筛选。

matchLabels使用场景

1.kube-controller进程通过资源对象ReplicaSet上定义的Label Selector来筛选要监控的Pod副本的数量,从而实现Pod副本的数量始终符合预期设定的全自动控制流程

2.kube-proxy进程通过Service的Label Selector来选择对应的Pod,自动建立器每个Service到对应Pod的请求转发路由表,从而实现Service的智能负载均衡机制

3.通过对某些Node定义特定的Label,并且在Pod定义文件中使用NodeSelector这种标签调度策略,Kube-scheduler进程可以实现Pod定向调度的特性

Pod 选择器

.spec.selector 字段是一个标签选择器。 ReplicationController 管理标签与选择器匹配的所有 Pod。它不区分它创建或删除的 Pod 和其他人或进程创建或删除的 Pod。 这允许在不影响正在运行的 Pod 的情况下替换ReplicationController。

如果指定了 .spec.template.metadata.labels,它必须和 .spec.selector 相同,否则它将被 API拒绝。 如果没有指定 .spec.selector,它将默认为 .spec.template.metadata.labels。

另外,通常不应直接使用另一个 ReplicationController 或另一个控制器(例如 Job)来创建其标签与该选择器匹配的任何Pod。如果这样做,ReplicationController 会认为它创建了这些 Pod,就会产生冲突, Kubernetes并没有阻止你这样做。

如果在生产环境中有大量的Deployment的话,无法快速确定哪些Pod是属于哪个Deployment,这个是就体现了label标签的重要性,而我上面的yaml并没有将service中的selector与deployment中的lables对应,因此创建的pod无法与service绑定,导致访问不到。

将yaml修改成如下之后修复了这个bug

---
apiVersion: apps/v1 #接口版本
kind: Deployment  #接口类型
metadata:
  name: xxxx-demo #Deployment名称
  namespace: xxxx-demo           #命名空间
spec:
  selector:
    matchLabels:
      app: xxxx-demo
      tier: frontend
  replicas: 1
  strategy:
    rollingUpdate:  ##由于replicas为1,则整个升级,pod个数在2-4个之间
      maxSurge: 1      #滚动升级时会先启动1个pod
      maxUnavailable: 1 #滚动升级时允许的最大Unavailable的pod个数
  template:
    metadata:
      labels:
        app: xxxx-demo
        tier: frontend
    spec:
      containers:
        - name: xxxx
          image: xxxxx.com:/xxxx-demo/xxxx
          env:
            - name: SPRING_PROFILE
              value: demo
          resources:
            requests:
              cpu: 200m
              memory: 200Mi
          ports:
            - containerPort: 8080
      imagePullSecrets:
        - name: xxxx
---
kind: Service
apiVersion: v1
metadata:
  name: xxxx-service
  namespace: xxxx-demo           #命名空间
spec:
  selector:
    app: xxxx-demo
  type: NodePort
  ports:                                 #service需要暴露的端口列表
    - name: string                         #端口名称
      protocol: TCP                     #端口协议,支持TCP和UDP,默认TCP
      port: 8080                            #服务监听的端口号
      targetPort: 8080                     #需要转发到后端Pod的端口号
      nodePort: 8080                        #当type = NodePort时,指定映射到物理机的端口号 The range of valid ports is 30000-32767
---

https://blog.csdn.net/Mr1ght/article/details/118180271

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 206,214评论 6 481
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 88,307评论 2 382
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 152,543评论 0 341
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 55,221评论 1 279
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 64,224评论 5 371
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,007评论 1 284
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,313评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,956评论 0 259
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 43,441评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,925评论 2 323
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,018评论 1 333
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,685评论 4 322
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,234评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,240评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,464评论 1 261
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,467评论 2 352
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,762评论 2 345

推荐阅读更多精彩内容