使用 k3d 在本地运行 k8s

本文介绍如何使用 k3d 在本地快速启动一个 k8s 集群。k3d 是以容器的方式运行 K3s 集群的工具,K3s 是 Rancher 推出的经过 CNCF 认证的与 K8S 完全兼容的发行版,特点是轻量级,启动快,依赖少,适合边缘计算以及资源能力有限的机器上运行集群。k3d 的这种启动方式对平台依赖少,安装部署比较干净利落,理论上本地只需要一个 Docker 运行环境即可。

安装过程介绍

实验环境

  • 操作系统:macOS Catalina (10.15.7)
  • 容器环境:Docker Desktop for Mac 3.2.2
  • 包管理工具:Homebrew

设置 Docker 镜像加速

打开 Docker Desktop for Mac 的首选项界面,选择 Docker Engine,加入如下设置:

{
  "registry-mirrors": [
    "https://8km017g6.mirror.aliyuncs.com"
  ]
}

之后点击 Apply & Restart 重启 Docker。

安装 k3d 和 kubectl

k3d 并不依赖于 kubectl,但是开发人员需要 kubectl 与 k3d 所创建的 k8s 集群进行通讯:

$ brew install kubectl
$ brew install k3d

创建 k8s 集群

使用 k3d cluster create 命令即可新建集群,同样 k3d 也支持通过命令行选项传入更多的可选参数,此外,也可以经由一个 YAML 配置文件来统一进行配置。下面我们重点介绍以下后者的启动方式。

新建一个 YAML 格式的配置文件 mycluster.yaml 如下:

apiVersion: k3d.io/v1alpha2
kind: Simple
name: mycluster
servers: 1
agents: 2
kubeAPI:
  hostPort: "6443" # same as `--api-port '6443'`
ports:
  - port: 8080:80  # same as `--port '8080:80@loadbalancer'`
    nodeFilters:
      - loadbalancer
  - port: 8443:443 # same as `--port '8443:443@loadbalancer'`
    nodeFilters:
      - loadbalancer

上面的配置文件指定了集群的名称、集群的节点个数(servers, agents) 以及向主机暴露的端口,更多的配置参数介绍请访问 Config File - k3d

接下来我们使用上面的配置文件 mycluster.yaml ,通过向 k3d 传入 --config 参数来创建我们的集群:

$ k3d cluster create --config /path/to/mycluster.yaml
INFO[0000] Using config file mycluster.yaml
INFO[0000] Prep: Network
INFO[0000] Created network 'k3d-mycluster'
INFO[0000] Created volume 'k3d-mycluster-images'
INFO[0001] Creating node 'k3d-mycluster-server-0'
INFO[0001] Creating node 'k3d-mycluster-agent-0'
INFO[0001] Creating node 'k3d-mycluster-agent-1'
INFO[0001] Creating LoadBalancer 'k3d-mycluster-serverlb'
INFO[0001] Starting cluster 'mycluster'
INFO[0001] Starting servers...
INFO[0001] Starting Node 'k3d-mycluster-server-0'
INFO[0007] Starting agents...
INFO[0007] Starting Node 'k3d-mycluster-agent-0'
INFO[0020] Starting Node 'k3d-mycluster-agent-1'
INFO[0028] Starting helpers...
INFO[0028] Starting Node 'k3d-mycluster-serverlb'
INFO[0029] (Optional) Trying to get IP of the docker host and inject it into the cluster as 'host.k3d.internal' for easy access
INFO[0031] Successfully added host record to /etc/hosts in 4/4 nodes and to the CoreDNS ConfigMap
INFO[0031] Cluster 'mycluster' created successfully!
INFO[0031] --kubeconfig-update-default=false --> sets --kubeconfig-switch-context=false
INFO[0031] You can now use it like this:
kubectl config use-context k3d-mycluster
kubectl cluster-info

接下来我们使用 kubectl 来查看集群 mucluster 中的基本信息:

$ kubectl get nodes
NAME                     STATUS   ROLES                  AGE   VERSION
k3d-mycluster-server-0   Ready    control-plane,master   29m   v1.20.2+k3s1
k3d-mycluster-agent-0    Ready    <none>                 29m   v1.20.2+k3s1
k3d-mycluster-agent-1    Ready    <none>                 29m   v1.20.2+k3s1

$ kubectl get pods -n kube-system
NAME                                      READY   STATUS      RESTARTS   AGE
local-path-provisioner-7c458769fb-sr8dk   1/1     Running     0          29m
metrics-server-86cbb8457f-t6kgk           1/1     Running     0          29m
coredns-854c77959c-fnlsh                  1/1     Running     0          29m
helm-install-traefik-cbwv7                0/1     Completed   0          29m
svclb-traefik-pf5fz                       2/2     Running     0          28m
svclb-traefik-5ctqj                       2/2     Running     0          28m
svclb-traefik-fqdzl                       2/2     Running     0          28m
traefik-6f9cbd9bd4-lpxvw                  1/1     Running     0          28m

至此,一个最基本的 k8s 集群就已经创建好了。

删除集群

使用以下命令删除上面已经创建的集群:

k3d cluster delete mycluster

部署测试应用

此处我们使用 k3d 官网提供的测试应用部署方法来启动一个 nginx:

$ kubectl create deployment nginx --image=nginx:alpine
deployment.apps/nginx created
$ kubectl create service clusterip nginx --tcp=80:80
service/nginx created

$ cat <<EOF | kubectl apply -f -
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:
  name: nginx
  annotations:
    ingress.kubernetes.io/ssl-redirect: "false"
spec:
  rules:
  - http:
      paths:
      - path: /
        pathType: Prefix
        backend:
          service:
            name: nginx
            port:
              number: 80
EOF
ingress.networking.k8s.io/nginx created

在浏览器打开 http://localhost:8080/

localhost-8080

参考资料

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,793评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,567评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,342评论 0 338
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,825评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,814评论 5 368
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,680评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,033评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,687评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 42,175评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,668评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,775评论 1 332
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,419评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,020评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,978评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,206评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,092评论 2 351
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,510评论 2 343

推荐阅读更多精彩内容