MongoDB6.0集群搭建(Centos7)

集群搭建有3种方式,Replica Set / Sharding / Master-Slaver。

复制集群(Replica Set )

ReplicaSet角色介绍

master:主节点,负责处理客户端请求,负责读写查询数据
salve:从节点,负责备份数据,可以设置为提供查询数据的功能,从而减少主节点的查询压力
arbite:仲裁节点,监控功能,当主节点挂了,会指定某个从节点去代替主节点。不存储数据

mongodb各节点常见的搭配方式为:一主一从一仲裁、一主多从一仲裁

主节点记录在其上的所有操作日志,从节点定期轮询主节点获取这些操作,然后对自己的数据副本进行这些操作,从而保证从节点的数据与主节点一致。

前置准备(一个mongodb应用,启用多个端口)

将mongodb的tgz以及mongosh的tgz解压到/usr/local,分别命名为mongodb-rs,mongosh。
【1】进入mongodb-rs目录,创建数据库目录,配置文件目录,日志目录

mkdir -p data/mater
mkdir -p data/salve1
mkdir -p data/salve2
mkdir -p data/arbite
mkdir logs
mkdir conf
cd logs
touch master.log salve1.log salve2.log arbite.log
cd ../conf
touch mongodb_master.conf mongodb_salve1.conf mongodb_salve2.conf mongodb_arbite.conf

【2】mongodb_master.conf 配置如下

dbpath=/usr/local/mongodb-rs/data/master
logpath=/usr/local/mongodb-rs/logs/master.log
logappend=true
bind_ip_all=true
port=27017
fork=true
replSet=rs0

【3】mongodb_salve1.conf配置如下

dbpath=/usr/local/mongodb-rs/data/slave1
logpath=/usr/local/mongodb-rs/logs/slave1.log
logappend=true
bind_ip_all=true
port=27018
fork=true
replSet=rs0

【4】mongodb_salve2.conf配置如下

dbpath=/usr/local/mongodb-rs/data/slave2
logpath=/usr/local/mongodb-rs/logs/slave2.log
logappend=true
bind_ip_all=true
port=27019
fork=true
replSet=rs0

【5】mongodb_arbite.conf配置如下

dbpath=/usr/local/mongodb-rs/data/arbite
logpath=/usr/local/mongodb-rs/logs/arbite.log
logappend=true
bind_ip_all=true
port=27020
fork=true
replSet=rs0

【6】启动一主两从一仲裁的mongodb服务

/usr/local/mongodb-rs/bin/mongod --config /usr/local/mongodb-rs/conf/mongodb_master.conf
/usr/local/mongodb-rs/bin/mongod --config /usr/local/mongodb-rs/conf/mongodb_slave1.conf
/usr/local/mongodb-rs/bin/mongod --config /usr/local/mongodb-rs/conf/mongodb_slave2.conf
/usr/local/mongodb-rs/bin/mongod --config /usr/local/mongodb-rs/conf/mongodb_arbite.conf

【6】连接其中一个服务

/usr/local/mongosh/bin/mongosh --port 27017
#然后使用use admin以后 初始化(下面的代码)
rs.initiate({  //复制集初始化
    _id:"rs0", //复制集的名称 与几个配置文件相同
    members:[    //复制集成员信息
        {_id:0,host:"127.0.0.1:27017",priority:3},   //_id唯一标记 priority权重,越大优先级越高。host主机地址
        {_id:1,host:"127.0.0.1:27018",priority:2},
        {_id:2,host:"127.0.0.1:27019",priority:1},
        {_id:3,host:"127.0.0.1:27020",arbiterOnly:true}  //arbiterOnly:是否是仲裁节点,权重越高越能成为主节点
    ]
});

复制集群搭建完毕

分片集群(Sharding)

什么是分片

当MongoDB存储数据量过大的时候,一台机器可能不足以存储数据或者不能够提供足够的读写吞吐量。就可以在多台机器上分割数据,使得数据库系统能够存储或者处理更多的数据。

分片结构

image.png

提示:
路由可是是多个,配置服务也可以是多个。分片shard必须是两个及其以上!!!。
另外,以上本质上都是Replica Set(复制集群)。但是配置服务不能有仲裁节点,路由不需要有数据库目录,只是指定配置服务即可。

sharding方案将整个数据集拆分成多个更小的chunk,并分布在集群中多个mongod节点上,最终达到存储和负载能力扩容、压力分流的作用。在sharding架构中,每个负责存储一部分数据的mongod节点称为shard(分片),shard上分布的数据块称为chunk,collections可以根据“shard key”(称为分片键)将数据集拆分为多个chunks,并相对均衡的分布在多个shards上。

术语解释

Shard
用于存储实际的数据块,实际生产环境中一个shard server角色可由几台机器组个一个replica set承担,防止主机单点故障
Config Server
mongod实例,存储了整个 ClusterMetadata,其中包括 chunk信息。
Routers
前端路由,客户端由此接入,且让整个集群看上去像单一数据库,前端应用可以透明使用。
Shard Key
数据的分区根据“shard key”,对于每个需要sharding的collection,都需要指定“shard key”(分片键);分片键必须是索引字段或者为组合索引的左前缀;mongodb根据分片键将数据分成多个chunks,并将它们均匀分布在多个shards节点上。目前,mongodb支持两种分区算法:区间分区(Range)和哈希(Hash)分区。
Range分区
首先shard key必须是数字类型或字符串类型(字符串类型根据索引排序作为分裂依据),整个区间的上下边界分别为“正无穷大”、“负无穷大”,每个chunk覆盖一段子区间,即整体而言,任何shard key均会被某个特定的chunk所覆盖。区间均为左闭右开。每个区间均不会有重叠覆盖,且互相临近。当然chunk并不是预先创建的,而是随着chunk数据的增大而不断split。
Hash分区
计算shard key的hash值(64位数字),并以此作为Range来分区;Hash值具有很强的散列能力,通常不同的shard key具有不同的hash值(冲突是有限的),这种分区方式可以将document更加随机的分散在不同的chunks上。

分片集群的搭建

前置准备(一个mongodb应用,启用多个端口)

将mongodb的tgz以及mongosh的tgz解压到/usr/local,分别命名为mongodb-sh,mongosh。
【1】进入mongodb-sh目录,创建数据库目录,配置文件目录,日志目录

#创建分片1的数据库目录(一主一从一裁决)
mkdir -p data/db/sh0/master_db
mkdir -p data/db/sh0/salve_db
mkdir -p data/db/sh0/arbite_db
#创建分片2的数据库目录(一主一从一裁决)
mkdir -p data/db/sh1/master_db
mkdir -p data/db/sh1/salve_db
mkdir -p data/db/sh1/arbite_db
#创建配置服务的数据库目录(一主两从无仲裁)
mkdir -p data/db/config_server/master_db
mkdir -p data/db/config_server/salve_db0
mkdir -p data/db/config_server/salve_db1
#创建日志目录以及日志文件
mkdir logs
cd logs
touch sh0-master.log   #分片1的主节点日志
touch sh0-salve.log     #分片1的从节点日志
touch sh0-arbite.log    #分片1的仲裁节点日志
touch sh1-master.log  #分片2的主节点日志
touch sh1-salve.log    #分片2的从节点日志
touch sh1-arbite.log   #分片2的仲裁节点日志
touch config-master.log #配置服务的主节点日志
touch config-salve0.log  #配置服务的从节点1日志
touch config-salve1.log #配置服务的从节点2日志
touch router.log               #路由的日志
#创建配置文件目录以及配置文件
cd ../
mkdir conf
touch sh0-master.conf   #分片1的主节点配置文件
touch sh0-salve.conf     #分片1的从节点配置文件
touch sh0-arbite.conf    #分片1的仲裁节点配置文件
touch sh1-master.conf  #分片2的主节点配置文件
touch sh1-salve.conf    #分片2的从节点配置文件
touch sh1-arbite.conf   #分片2的仲裁节点配置文件
touch config-master.conf #配置服务的主节点配置文件
touch config-salve0.conf  #配置服务的从节点1配置文件
touch config-salve1.conf #配置服务的从节点2配置文件
touch router.conf               #路由的配置文件

配置文件的具体内容:

#sh0_master.conf配置文件内容
dbpath=/usr/local/mongodb-sh/data/db/sh0/master_db
logpath=/usr/local/mongodb-sh/logs/sh0-master.log
bind_ip_all=true
shardsvr=true  #是否是分片
logappend=true
replSet=sh0
port=27010
oplogSize=10000
fork=true
#sh0_salve.conf配置文件内容
dbpath=/usr/local/mongodb-sh/data/db/sh0/salve_db
logpath=/usr/local/mongodb-sh/logs/sh0-salve.log
bind_ip_all=true
shardsvr=true
logappend=true
replSet=sh0
port=27011
oplogSize=10000
fork=true
#sh0_arbite.conf配置文件内容
dbpath=/usr/local/mongodb-sh/data/db/sh0/arbite_db
logpath=/usr/local/mongodb-sh/logs/sh0-arbite.log
bind_ip_all=true
shardsvr=true
logappend=true
replSet=sh0
port=27012
oplogSize=10000
fork=true
#sh1_master.conf配置文件内容
dbpath=/usr/local/mongodb-sh/data/db/sh1/master_db
logpath=/usr/local/mongodb-sh/logs/sh1-master.log
bind_ip_all=true
shardsvr=true
logappend=true
replSet=sh1
port=27020
oplogSize=10000
fork=true
#sh1_salve.conf配置文件内容
dbpath=/usr/local/mongodb-sh/data/db/sh1/salve_db
logpath=/usr/local/mongodb-sh/logs/sh1-salve.log
bind_ip_all=true
shardsvr=true
logappend=true
replSet=sh1
port=27021
oplogSize=10000
fork=true
#sh1_arbite.conf配置文件内容
dbpath=/usr/local/mongodb-sh/data/db/sh1/arbite_db
logpath=/usr/local/mongodb-sh/logs/sh1-arbite.log
bind_ip_all=true
shardsvr=true
logappend=true
replSet=sh1
port=27022
oplogSize=10000
fork=true
#config_master.conf配置文件内容
dbpath=/usr/local/mongodb-sh/data/db/config_server/master_db
logpath=/usr/local/mongodb-sh/logs/config-master.log
bind_ip_all=true
configsvr=true  #是否是配置服务
logappend=true
replSet=cf
port=27030
oplogSize=10000
fork=true
#config_salve0.conf配置文件内容
dbpath=/usr/local/mongodb-sh/data/db/config_server/salve_db0
logpath=/usr/local/mongodb-sh/logs/config-salve0.log
bind_ip_all=true
configsvr=true
logappend=true
replSet=cf
port=27031
oplogSize=10000
fork=true
#config_salve1.conf配置文件内容
dbpath=/usr/local/mongodb-sh/data/db/config_server/salve_db1
logpath=/usr/local/mongodb-sh/logs/config-salve1.log
bind_ip_all=true
configsvr=true
logappend=true
replSet=cf
port=27032
oplogSize=10000
fork=true
#router.conf路由的配置文件内容
configdb=cf/127.0.0.1:27030,127.0.0.1:27031,127.0.0.1:27032
logpath=/usr/local/mongodb-sh/logs/router-master.log
bind_ip_all=true
port=27040
fork=true

启动分片1服务

/usr/local/mongodb-sh/bin/mongod --config /usr/local/mongodb-sh/conf/sh0-master.conf
/usr/local/mongodb-sh/bin/mongod --config /usr/local/mongodb-sh/conf/sh0-salve.conf
/usr/local/mongodb-sh/bin/mongod --config /usr/local/mongodb-sh/conf/sh0-arbite.conf

连接分片1

/usr/local/mongosh/bin/mongosh --port 27010
#然后使用use admin以后 初始化(下面的代码)

初始化分片1

rs.initiate({  //复制集初始化
    _id:"sh0", //复制集的名称 与几个配置文件相同
    members:[    //复制集成员信息
        {_id:0,host:"127.0.0.1:27010",priority:2},   //_id唯一标记 priority权重,越大优先级越高。host主机地址
        {_id:1,host:"127.0.0.1:27011",priority:1},
        {_id:2,host:"127.0.0.1:27012",arbiterOnly:true}  //arbiterOnly:是否是仲裁节点,权重越高越能成为主节点
    ]
});

启动分片2服务

/usr/local/mongodb-sh/bin/mongod --config /usr/local/mongodb-sh/conf/sh1-master.conf
/usr/local/mongodb-sh/bin/mongod --config /usr/local/mongodb-sh/conf/sh1-salve.conf
/usr/local/mongodb-sh/bin/mongod --config /usr/local/mongodb-sh/conf/sh1-arbite.conf

连接分片2

/usr/local/mongosh/bin/mongosh --port 27020
#然后使用use admin以后 初始化(下面的代码)

初始化分片2

rs.initiate({  //复制集初始化
    _id:"sh1", //复制集的名称 与几个配置文件相同
    members:[    //复制集成员信息
        {_id:0,host:"127.0.0.1:27020",priority:2},   //_id唯一标记 priority权重,越大优先级越高。host主机地址
        {_id:1,host:"127.0.0.1:27021",priority:1},
        {_id:2,host:"127.0.0.1:27022",arbiterOnly:true}  //arbiterOnly:是否是仲裁节点,权重越高越能成为主节点
    ]
});

启动config-server服务

/usr/local/mongodb-sh/bin/mongod --config /usr/local/mongodb-sh/conf/config-master.conf
/usr/local/mongodb-sh/bin/mongod --config /usr/local/mongodb-sh/conf/config-salve0.conf
/usr/local/mongodb-sh/bin/mongod --config /usr/local/mongodb-sh/conf/config-salve1.conf

连接config-server服务

/usr/local/mongosh/bin/mongosh --port 27030
#然后使用use admin以后 初始化(下面的代码)

初始化config-server

rs.initiate({  //复制集初始化
    _id:"cf", //复制集的名称 与几个配置文件相同
    members:[    //复制集成员信息
        {_id:0,host:"127.0.0.1:27030",priority:2},   //_id唯一标记 priority权重,越大优先级越高。host主机地址
        {_id:1,host:"127.0.0.1:27031",priority:1},
        {_id:2,host:"127.0.0.1:27032",priority:1}  //注意没有仲裁地址
    ]
});

启动router路由服务(注意:路由启动用mongos不是mongod)

/usr/local/mongodb-sh/bin/mongos --config /usr/local/mongodb-sh/conf/router.conf

连接router路由服务

/usr/local/mongosh/bin/mongosh --port 27040
#然后使用use admin以后

注意MongoDB6以后直接在路由中加入分片信息会报错
在admin角色下,执行:

db.adminCommand({
  "setDefaultRWConcern" : 1,
  "defaultWriteConcern" : {
    "w" : 2  #这里的数量是分片排除仲裁节点以后的节点总数
  }
});

然后路由服务中加入分片信息:

db.runCommand({'addShard':'sh0/127.0.0.1:27010,127.0.0.1:27011,127.0.0.1:27012'});
db.runCommand({'addShard':'sh1/127.0.0.1:27020,127.0.0.1:27021,127.0.0.1:27022'});

开启Shard
首先需要将Database开启sharding,否则数据仍然无法在集群中分布,即数据库、collection默认为non-sharding。对于non-sharding的database或者collection均会保存在primary shard上,直到开启sharding才会在集群中分布。
创建测试库:

use test

开启Shard,开启分片命令必须在admin库下运行。

db.runCommand({ enablesharding: 'test'})

此后我们可以对collection开启sharding,在此之前需要先指定shard key和建立“shard key索引”,我们根据application对数据访问的模式,来设定shard key。
需要切换进入到对应的库中:

use test
db.users.ensureIndex({'alias':'hashed'});

设置集合为可分片集合的命令,必须在admin库中执行。

db.runCommand({ shardcollection: 'test.users', key: {'alias': 'hashed'}})

那么users集合将使用“alias”作为第一维shard key,采用hashed分区模式,将此chunk分裂成2个,我们可以通过sh.status()查看每个chunk的分裂区间。
至此,分片集群搭建完毕。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 205,236评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,867评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,715评论 0 340
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,899评论 1 278
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,895评论 5 368
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,733评论 1 283
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,085评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,722评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 43,025评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,696评论 2 323
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,816评论 1 333
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,447评论 4 322
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,057评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,009评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,254评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,204评论 2 352
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,561评论 2 343

推荐阅读更多精彩内容