LKS Kubernetes Service设计解密

容器服务已经是一个非常火爆的话题,业界的应用开发已经逐渐接受了把容器作为应用发布的新标准。但是,如果容器服务只提供容器接口,用户在使用上会有诸多限制。因而,业内的主流容器云产商纷纷推出了k8s service,将k8s集群作为一个服务提供,例如AWS提供的eks。

LKS是我们设计实现的一个k8s service容器系统。LKS的设计思想是让用户可以自助、自如的使用k8s。所谓自助是说用户创建集群、删除集群、向集群中增添删除节点可以完全自助完成,不需要管理员介入;所谓自如是说当用户在使用的过程中不需要担心破坏整个k8s集群。k8s的控制面由系统管理,用户只使用k8s集群的计算节点,计算节点的错误不会影响到整个k8s集群的可用性。

这个系列文章将详细探究LKS的设计,以及实现过程中的一些思考。

总体架构

LKS使用一个我们称为kube0的k8s集群来管理其他用户的k8s集群。kube0由管理员维护,用户不可访问。当用户创建一个k8s集群时,系统可以使用k8s标准的接口(例如kubectl create -f xxxx.yaml或者通过REST方式等)在kube0中创建一个k8s对象(Lkscluster),删除一个k8s集群也是类似的。更进一步的,我们提供了一个比集群更加细粒度的k8s对象Lksnode来描述用户创建k8s集群的节点,从而用户可以往k8s集群中增加及删除节点。

在kube0中,我们使用一个基于CRD的Operator来管理其他k8s集群对应的对象。我们定义了两个CRD对象,Lkscluster以及Lksnode。两个对象的描述如下:

Lkscluster

apiVersion: ck.io/v1alpha1
kind: Lkscluster
metadata:
name: ""
namespace: ""
spec:
    k8s:
        k8sversion: ""
        isha: ""
    plugins:
        plugins:
        - Name: ""
    nodes:
    - number: 
      node:
        vm:
            auth:
                tenant: ""
                user: ""
                password: ""
            userid: ""
            adminPasswd: ""
            networkID: ""
            flavor: ""

其中, spec.k8s.k8sversion描述了需要创建k8s集群使用的版本,spec.k8s.isha指定当前k8s是否需要ha版本。 spec.plugins描述k8s集群启动之后需要安装的k8s插件,如dashboard等。spec.nodes是一个节点数组,每个元素是一个节点replicas。节点replicas描述了多个配置相同的虚拟机实例。整个spec.nodes描述了集群的初始节点情况。 spec.nodes.vm描述了构成k8s集群的各个VM的认证及登陆信息,包括虚机所在的OpenStack用户名称及密码(为了方便用户通过云平台界面自助创建自己的k8s集群,我们也实现了基于token认证的方式,从而不需要暴露用户的密码)、设置虚机创建后的登陆密码、虚机所属的网路及使用的资源模板等。

Lksnode

apiVersion: ck.io/v1alpha1
kind: Lksnode
metadata:
  name: ""
  namespace: ""
  labels:
    lksnode.OwnerClusterName: ""
spec:
  role: ""
  vm:
    auth:
      tenant: ""
      user: ""
      password: ""
    adminPasswd: ""
    networkID: ""
    flavor: ""

Lksnode定义了当Lkscluster集群创建之后向集群中增加的节点描述文件。其中metadata.labels.lksnode.OwnerClusterName描述了该节点所属的Lkscluster集群,spec.role描述当前节点是增加为worker节点还是master节点。

在kube0中,我们可以通过kubectl create -f lkscluster.yaml创建一个k8s集群,并通过kubectl create -f lksnode.yaml向集群中增加一个节点。

LKS目前把OpenStack作为支撑IaaS平台,未来会扩展到其他云平台。

Lkscluster集群

大体而言,Lkscluster中的节点部署分为两个过程,分别为vm provision以及k8s deployment。Lkscluster集群从定义上区分为初始集群以及新增节点,这主要是为了兼容不同的k8s集群的部署方式。对于初始集群而言,系统等待集群中所有的节点vm provision完成之后才开始部署k8s组件;而对于其他新增的节点,k8s部署在某个节点vm provision完成之后立马进行,不需要在各个新增节点之间同步。除此之外,初始集群还需要完成一些除k8s部署之外的其他工作,我们把初始集群的启动的各个阶段分为:

  • initializing
  • vm provision: vm开始启动,并等待所有vm启动完成。
  • k8s deploying: k8s开始部署,并等待所有k8s的nodes处于ready状态。部署必须的k8s plugins,例如网络插件等。
  • plugin install: 用户指定的插件开始部署,并等待所有插件部署完成。
  • ready: 初始集群部署完成,用户可以开始使用k8s集群。开始部署通过lksnode新增的节点。

新增Lksnode的启动过程则分为以下几个阶段:

  • initializing
  • vm provision: vm启动。
  • k8s deploying: k8s开始部署。
  • k8sready: 节点k8s部署完成。

区分初始集群与后期新增节点带来的另一个好处是我们可以方便地构建managed k8s集群。这就意味着,在启动的过程中我们可以将初始集群部署在某个系统管理的system tenant中,而用户自己创建的work节点则部署在用户自身tanent中。这样,整个k8s集群的控制面由系统管理,用户则只操作计算面。达到的效果是,用户可以自如地使用k8s集群,不需要担心因误操作导致整个集群崩溃。

在LKS中,Lkscluster对初始集群的管理也转化成对应的Lksnode的管理,即对于Lkscluster中描述的每一个节点,都有一个对应的Lksnode对象被创建用于跟踪初始集群中各个节点的状态。

在我们当前的实现中,用户创建的Lkscluster集群基于修改的kubeadm构建。kubeadm提供的基于kubeadm init和kubeadm join的集群构建方法给我们提供了诸多方便,例如,在初始集群的启动过程中,我们只需要等待master节点部署完成即可以使用与lksnode新增节点相同的流程添加初始集群中的其他worker节点。

Production

将LKS产品化涉及到很多更加细节的考虑,例如可实现性、安全、易用等方面。下面我们列出一些这方面的考虑,我们将在后续的文章中探讨更多的细节设计:

  • 如何不需要用户提供密码等敏感信息?基于安全原因,用户不愿意提供敏感信息给LKS,这将成为用户使用LKS的一个后顾之忧。在我们的实现中,我们与云平台融合,使用云平台的访问token作为用户的认证信息,从而做到不需要用户提供敏感信息。
  • 用户如何与kube0交互?基于安全原因,用户是不能直接访问kube0的,因而我们需要一个client库作为用户和kube0之间的桥梁。在我们的实现中我们设计了lksclient库。
  • 如何限制用户库在kube0中的权限?出于安全原因我们需要给lksclient在kube0相应的角色,这个角色提供了lksclient对Lkscluster以及Lksnode资源的访问权限,并限制了lksclient访问其他资源。在我们的实现中,我们在kube0中为lksclient创建了相应的用户并提供了对应的rbac role。
  • 如何让kube0访问不同用户创建的VM?在IaaS云平台中,不同用户的VM可能属于不同的子网并且不一定会绑定public地址,因而kube0无法主动连接在用户tanent中创建的VM。但是,如果我们给kube0所在的VM绑定public地址时,用户tanent中创建的VM则可以主动连接kube0。在我们的实现中,我们为用户tanent中创建的虚机提供了一个lksadmin agent。lksadmin作为systemd管理的服务运行,负责主动连接kube0并与kube0进行交互。

为了更加方便用户自助地使用LKS,我们将LKS集成到了OpenStack的Horizon项目中,作为horizon dashboard project compute中的一个模块。Lkscluster模块在index表中显示当前用户的所有LKS集群以及集群中的所有节点信息,包括节点名称、节点角色、节点状态、k8s版本、集群名称、集群状态以及节点创建时间等。 index表包含三个表级action,分别是创建Lkscluster集群、创建Lksnode节点以及删除Lkscluster集群。index表还包括几个行级action,包括删除Lksnode节点等。

kube0

kube0的存在给我们提供了非常多可能性。在我们的方案中,涉及到的功能包括但不限于:

  • 为用户创建的集群提供统一的日志分析、性能数据收集等功能;
  • 为用户创建的k8s集群提供错误预测、告警等智能功能;
  • 为用户集群提供统一的负载均衡策略;
  • 为用户集群提供统一的集群升级及应用维护功能;
  • 为用户集群提供备份执行机制,包括高可用应用的备份、尖峰负载的扩容等。

这些功能的设计及实现思考我们将在后续陆续探讨。

总结

LKS为基于k8s的应用开发及运维用户提供了一个自主、自如的k8s service功能。基于我们实现过程中的managed设计以及production设计,我们最大程度的减少了用户使用LKS的后顾之忧,从而可以大力促进容器系统的快速落地。


更多我的文章可以查看我的github博客

添加好友我们可以聊更多相关话题二维码

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,772评论 6 477
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,458评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,610评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,640评论 1 276
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,657评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,590评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,962评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,631评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,870评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,611评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,704评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,386评论 4 319
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,969评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,944评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,179评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 44,742评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,440评论 2 342

推荐阅读更多精彩内容