Kubernetes 部署 Nebula 图数据库集群

Helm 是 Kubernetes 集群上的包管理工,使用 Helm 可以极大地降低使用 Kubernetes 部署应用的门槛。本文不做 Helm 详细介绍,有兴趣的小伙伴可自行阅读《Helm 入门指南》。

下载安装 Helm

使用下面命令在终端执行即可安装 Helm

$ wget https://get.helm.sh/helm-v3.5.2-linux-amd64.tar.gz

$ tar -zxvf helm/helm-v3.5.2-linux-amd64.tgz

$ mv linux-amd64/helm /usr/bin/helm

查看 Helm 版本

执行 helm version 命令即可查看对应的 Helm 版本,以文本为例,以下为输出结果:

version.BuildInfo{Version:"v3.5.2", GitCommit:"167aac70832d3a384f65f9745335e9fb40169dc2", GitTreeState:"dirty", GoVersion:"go1.15.7"}

设置本地磁盘

在每台机器上做如下配置

创建 mount 目录

$ sudo mkdir -p /mnt/disks

格式化数据盘

$ sudo mkfs.ext4 /dev/diskA

$ sudo mkfs.ext4 /dev/diskB

挂载数据盘

$ DISKA_UUID=$(blkid -s UUID -o value /dev/diskA)

$ DISKB_UUID=$(blkid -s UUID -o value /dev/diskB)

$ sudo mkdir /mnt/disks/$DISKA_UUID

$ sudo mkdir /mnt/disks/$DISKB_UUID

$ sudo mount -t ext4 /dev/diskA /mnt/disks/$DISKA_UUID

$ sudo mount -t ext4 /dev/diskB /mnt/disks/$DISKB_UUID

$ echo UUID=`sudo blkid -s UUID -o value /dev/diskA` /mnt/disks/$DISKA_UUID ext4 defaults 0 2 | sudo tee -a /etc/fstab

$ echo UUID=`sudo blkid -s UUID -o value /dev/diskB` /mnt/disks/$DISKB_UUID ext4 defaults 0 2 | sudo tee -a /etc/fstab

部署本地卷插件

$ curl https://github.com/kubernetes-sigs/sig-storage-local-static-provisioner/archive/v2.4.0.zip

$ unzip v2.4.0.zip

修改 v2.4.0/helm/provisioner/values.yaml classes 部分:

将 hostDir: /mnt/fast-disks 改成 hostDir: /mnt/disks,# storageClass: true 改成 storageClass: true。然后执行:

$ helm install local-static-provisioner --namespace default sig-storage-local-static-provisioner/helm/provisioner

# 查看 local-static-provisioner 部署情况

$ helm list

NAME                    NAMESPACE REVISION UPDATED                              STATUS  CHART            APP VERSION

local-volume-provisioner default  1      2021-02-10 11:06:34.3540341 +0800 CST deployed provisioner-2.4.0 2.4.0

部署 nebula 集群

下载 nebula helm chart

# 下载 nebula chart

$ helm repo add nebula-charts https://vesoft-inc.github.io/nebula-docker-compose

$ helm pull nebula-charts/nebula

$ tar -zxvf nebula-v2.0.0.tgz

设置 Kubernetes node节点

下面是 Kubernetes 节点列表,我们需要设置 node 节点的调度标签。可以将 192.168.0.2,192.168.0.3,192.168.0.4 打上 nebula: "cloud" 的标签。

服务器 IP kubernetes roles nodeName

192.168.0.1 master 192.168.0.1

192.168.0.2 node 192.168.0.2

192.168.0.3 node 192.168.0.3

192.168.0.4 node 192.168.0.4

具体操作如下:

$ kubectl  label node 192.168.0.2 nebula="cloud" --overwrite

$ kubectl  label node 192.168.0.3 nebula="cloud" --overwrite

$ kubectl  label node 192.168.0.4 nebula="cloud" --overwrite

调整 values 默认值

nebula helm chart 目录如下:

nebula

├── Chart.yaml

├── README.md

├── templates

│  ├── configmap.yaml

│  ├── deployment.yaml

│  ├── _helpers.tpl

│  ├── NOTES.txt

│  ├── pdb.yaml

│  ├── serviceaccount.yaml

│  ├── service.yaml

│  └── statefulset.yaml

└── values.yaml

1 directory, 11 files

可以根据运行环境需求修改 charts/nebula/values.yaml  里面的默认值

通过 helm 安装 nebula

$ helm install nebula charts/nebula

# 查看部署状态

$ helm status nebula

NAME: nebula

LAST DEPLOYED: Fri Feb 19 12:58:16 2021

NAMESPACE: default

STATUS: deployed

REVISION: 1

TEST SUITE: None

NOTES:

Nebula Graph Cluster installed!

1. Watch all containers come up.

  $ kubectl get pods --namespace=default -l app.kubernetes.io=nebula -w

# 查看 K8s 集群上 nebula 部署情况

$ kubectl get pods --namespace=default -l app.kubernetes.io=nebula

NAME                            READY  STATUS    RESTARTS  AGE

nebula-graphd-676cfcf797-4q7mk  1/1    Running  0          6m

nebula-graphd-676cfcf797-whwqp  1/1    Running  0          6m

nebula-graphd-676cfcf797-zn5l6  1/1    Running  0          6m

nebula-metad-0                  1/1    Running  0          6m

nebula-metad-1                  1/1    Running  0          6m

nebula-metad-2                  1/1    Running  0          6m

nebula-storaged-0                1/1    Running  0          6m

nebula-storaged-1                1/1    Running  0          6m

nebula-storaged-2                1/1    Running  0          6m

访问 nebula 集群:

$ kubectl get service nebula-graphd

NAME            TYPE      CLUSTER-IP      EXTERNAL-IP  PORT(S)                                          AGE

nebula-graphd  NodePort  10.105.47.116  <none>        9669:31646/TCP,19669:30554/TCP,19670:32386/TCP  22m

# 使用 nebula-console 测试

$ docker run --rm -ti --entrypoint=/bin/sh vesoft/nebula-console:v2-nightly

# 通过 NodePort 连接到 graphd 组件

/ $ nebula-console -addr 192.168.0.4 -port 31646 -u root -p vesoft

2021/02/19 05:04:55 [INFO] connection pool is initialized successfully

Welcome to Nebula Graph v2.0.0-rc1!

(root@nebula) [(none)]> show hosts;

+---------------------------------------------------------------+------+----------+--------------+----------------------+------------------------+

| Host                                                          | Port | Status  | Leader count | Leader distribution  | Partition distribution |

+---------------------------------------------------------------+------+----------+--------------+----------------------+------------------------+

| "nebula-storaged-0.nebula-storaged.default.svc.cluster.local" | 9779 | "ONLINE" | 0            | "No valid partition" | "No valid partition"  |

+---------------------------------------------------------------+------+----------+--------------+----------------------+------------------------+

| "nebula-storaged-1.nebula-storaged.default.svc.cluster.local" | 9779 | "ONLINE" | 0            | "No valid partition" | "No valid partition"  |

+---------------------------------------------------------------+------+----------+--------------+----------------------+------------------------+

| "nebula-storaged-2.nebula-storaged.default.svc.cluster.local" | 9779 | "ONLINE" | 0            | "No valid partition" | "No valid partition"  |

+---------------------------------------------------------------+------+----------+--------------+----------------------+------------------------+

| "Total"                                                      |      |          | 0            |                      |                        |

+---------------------------------------------------------------+------+----------+--------------+----------------------+------------------------+

Got 4 rows (time spent 2608/4258 us)

FAQ

如何搭建一套 Kubernetes 集群?

搭建高可用的 Kubernetes 可以参考社区文档:https://kubernetes.io/docs/setup/production-environment/tools/kubeadm/high-availability/

如何调整 nebula 集群的部署参数?

在使用 helm install 时,使用 --set 可以设置部署参数,从而覆盖掉 helm chart 中 values.yaml 中的变量。参考文档:https://helm.sh/docs/intro/using_helm/

能否兼容 nebula v1.0.0+ 集群部署?

v1.0.0+ 不支持内部域名解析,需要修改 charts/nebula/values.yaml,配置如下:

hostNetwork: true

metadEndpoints: []

  - 192.168.0.2:9559

  - 192.168.0.3:9559

  - 192.168.0.4:9559

深圳网站建设www.sz886.com

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 202,980评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,178评论 2 380
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 149,868评论 0 336
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,498评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,492评论 5 364
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,521评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,910评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,569评论 0 256
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,793评论 1 296
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,559评论 2 319
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,639评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,342评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,931评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,904评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,144评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,833评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,350评论 2 342

推荐阅读更多精彩内容