Centos7 MongoDB(分片+副本)集群搭建

相关概念

搭建集群之前需要了解几个概念:路由,分片、副本集、配置服务器等。

  • mongos,数据库集群请求的入口,所有的请求都通过mongos进行协调,不需要在应用程序添加一个路由选择器,mongos自己就是一个请求分发中心,它负责把对应的数据请求请求转发到对应的shard服务器上。在生产环境通常有多mongos作为请求的入口,防止其中一个挂掉所有的mongodb请求都没有办法操作。
  • shard,分片(sharding)是指将数据库拆分,将其分散在不同的机器上的过程。将数据分散到不同的机器上,不需要功能强大的服务器就可以存储更多的数据和处理更大的负载。基本思想就是将集合切成小块,这些块分散到若干片里,每个片只负责总数据的一部分,最后通过一个均衡器来对各个分片进行均衡(数据迁移)。
  • replica set(副本集),其实就是shard的备份,防止shard挂掉之后数据丢失。复制提供了数据的冗余备份,并在多个服务器上存储数据副本,提高了数据的可用性, 并可以保证数据的安全性。
  • config server,顾名思义为配置服务器,存储所有数据库元信息(路由、分片)的配置。mongos本身没有物理存储分片服务器和数据路由信息,只是缓存在内存里,配置服务器则实际存储这些数据。mongos第一次启动或者关掉重启就会从 config server 加载配置信息,以后如果配置服务器信息变化会通知到所有的 mongos 更新自己的状态,这样 mongos 就能继续准确路由。在生产环境通常有多个 config server 配置服务器,因为它存储了分片路由的元数据,防止数据丢失!
  • 仲裁者(Arbiter),是复制集中的一个MongoDB实例,它并不保存数据。仲裁节点使用最小的资源并且不要求硬件设备,不能将Arbiter部署在同一个数据集节点中,可以部署在其他应用服务器或者监视服务器中,也可部署在单独的虚拟机中。为了确保复制集中有奇数的投票成员(包括primary),需要添加仲裁节点做为投票,否则primary不能运行时不会自动切换primary。

简单了解之后,我们可以这样总结一下,应用请求mongos来操作mongodb的增删改查,配置服务器存储数据库元信息,并且和mongos做同步,数据最终存入在shard(分片)上,为了防止数据丢失同步在副本集中存储了一份,仲裁在数据存储到分片的时候决定存储到哪个节点。

服务器规划

服务器(192.168.0.111) 服务器(192.168.0.112) 服务器(192.168.0.217) 端口
mongos mongos mongos 20000
config server config server config server 21000
shard server1 主节点 shard server1 仲裁 shard server1 副节点 27001
shard server2 副节点 shard server2 主节点 shard server2 仲裁 27002
shard server3 仲裁 shard server3 副节点 shard server3 主节点 27003

集群搭建

1、安装mongodb
#下载
wget https://fastdl.mongodb.org/linux/mongodb-linux-x86_64-3.4.6.tgz

#解压
tar -xzvf mongodb-linux-x86_64-3.4.6.tgz -C /usr/local/

#进去解压位置
cd /usr/local/

#改名
mv mongodb-linux-x86_64-3.4.6  mongodb

#分别在机器上建立conf、mongos、config、shard1、shard2、shard3六个目录,(每台服务器根据部署情况创建相关目录)
mkdir -p /usr/local/mongodb/conf
mkdir -p /usr/local/mongodb/mongos/log   #因为mongos不存储数据,只需要建立日志文件目录即可
mkdir -p /usr/local/mongodb/config/{data,log}
mkdir -p /usr/local/mongodb/shard{1,2,3}/{data,log}


#配置环境变量
vim /etc/profile
#内容
export PATH=$PATH:/usr/local/mongodb/bin

#使立即生效
source /etc/profile
2、config server配置服务器

mongodb3.4以后要求配置服务器也创建副本集,不然集群搭建不成功。

vi /usr/local/mongodb/conf/config.conf

## 配置文件内容
pidfilepath = /usr/local/mongodb/config/log/configsrv.pid
dbpath = /usr/local/mongodb/config/data
logpath = /usr/local/mongodb/config/log/congigsrv.log
logappend = true
 
bind_ip = 0.0.0.0
port = 21000
fork = true
 
#declare this is a config db of a cluster;
configsvr = true

#副本集名称
replSet=configs
 
#设置最大连接数
maxConns=20000

启动三台服务器的config server

mongod -f /usr/local/mongodb/conf/config.conf

登录任意一台配置服务器,初始化配置副本集

#连接
mongo --port 21000
#config变量
config = {
...    _id : "configs",
...     members : [
...         {_id : 0, host : "192.168.0.111:21000" },
...         {_id : 1, host : "192.168.0.112:21000" },
...         {_id : 2, host : "192.168.0.217:21000" }
...     ]
... }

#初始化副本集
rs.initiate(config)

其中,"_id" : "configs"应与配置文件中配置的 replSet(副本集名称) 一致,"members" 中的 "host" 为三个节点的 ip 和 port

3、配置分片副本集(三台机器)

3.1、设置第一个分片副本集

#编写配置文件
vi /usr/local/mongodb/conf/shard1.conf

#配置文件内容
#——————————————–
pidfilepath = /usr/local/mongodb/shard1/log/shard1.pid
dbpath = /usr/local/mongodb/shard1/data
logpath = /usr/local/mongodb/shard1/log/shard1.log
logappend = true

bind_ip = 0.0.0.0
port = 27001
fork = true
 
#打开web监控
httpinterface=true
rest=true
 
#副本集名称
replSet=shard1
 
#declare this is a shard db of a cluster;
shardsvr = true
 
#设置最大连接数
maxConns=20000

启动三台服务器的shard1 server

mongod -f /usr/local/mongodb/conf/shard1.conf

登陆任意一台服务器,初始化副本集

#登录
mongo --port 27001

#使用admin数据库
use admin

#定义副本集配置,第三个节点的 "arbiterOnly":true 代表其为仲裁节点。
config = {
...    _id : "shard1",
...     members : [
...         {_id : 0, host : "192.168.0.111:27001" },
...         {_id : 1, host : "192.168.0.112:27001" , arbiterOnly: true },
...         {_id : 2, host : "192.168.0.217:27001" }
...     ]
... }

#初始化副本集配置
rs.initiate(config);

3.2、设置第二个分片副本集

#编写配置文件
vi /usr/local/mongodb/conf/shard2.conf

#配置文件内容
#——————————————–
pidfilepath = /usr/local/mongodb/shard2/log/shard2.pid
dbpath = /usr/local/mongodb/shard2/data
logpath = /usr/local/mongodb/shard2/log/shard2.log
logappend = true

bind_ip = 0.0.0.0
port = 27002
fork = true
 
#打开web监控
httpinterface=true
rest=true
 
#副本集名称
replSet=shard2
 
#declare this is a shard db of a cluster;
shardsvr = true
 
#设置最大连接数
maxConns=20000

启动三台服务器的shard2 server

mongod -f /usr/local/mongodb/conf/shard2.conf

登陆任意一台服务器,初始化副本集

#登录
mongo --port 27002

#使用admin数据库
use admin

#定义副本集配置
config = {
...    _id : "shard2",
...     members : [
...         {_id : 0, host : "192.168.0.111:27002" },
...         {_id : 1, host : "192.168.0.112:27002" },
...         {_id : 2, host : "192.168.0.217:27002" , arbiterOnly: true }
...     ]
... }

#初始化副本集配置
rs.initiate(config);

3.3、设置第三个分片副本集

#编写配置文件
vi /usr/local/mongodb/conf/shard3.conf

#配置文件内容
#——————————————–
pidfilepath = /usr/local/mongodb/shard3/log/shard3.pid
dbpath = /usr/local/mongodb/shard3/data
logpath = /usr/local/mongodb/shard3/log/shard3.log
logappend = true

bind_ip = 0.0.0.0
port = 27003
fork = true
 
#打开web监控
httpinterface=true
rest=true
 
#副本集名称
replSet=shard3
 
#declare this is a shard db of a cluster;
shardsvr = true
 
#设置最大连接数
maxConns=20000

启动三台服务器的shard3 server

mongod -f /usr/local/mongodb/conf/shard3.conf

登陆任意一台服务器,初始化副本集

#登录
mongo --port 27003

#使用admin数据库
use admin

#定义副本集配置
config = {
...    _id : "shard3",
...     members : [
...         {_id : 0, host : "192.168.0.111:27003" , arbiterOnly: true },
...         {_id : 1, host : "192.168.0.112:27003" },
...         {_id : 2, host : "192.168.0.217:27003" }
...     ]
... }

#初始化副本集配置
rs.initiate(config);

如初始化副本集出现如下报错:
解决方案:仲裁不能再同一台服务器上换下就可以。

> config = { _id : "shard3", members : [{_id : 0, host : "192.168.0.111:27003" , arbiterOnly: true },{_id : 1, host : "192.168.0.112:27003" },{_id : 2, host : "192.168.0.217:27003" }]}
{
        "_id" : "shard3",
        "members" : [
                {
                        "_id" : 0,
                        "host" : "192.168.0.111:27003",
                        "arbiterOnly" : true
                },
                {
                        "_id" : 1,
                        "host" : "192.168.0.112:27003"
                },
                {
                        "_id" : 2,
                        "host" : "192.168.0.217:27003"
                }
        ]
}
> rs.initiate(config);
{
        "ok" : 0,
        "errmsg" : "This node, 192.168.0.111:27003, with _id 0 is not electable under the new configuration version 1 for replica set shard3",
        "code" : 93,
        "codeName" : "InvalidReplicaSetConfig"
}
4、配置路由服务器 mongos

先启动配置服务器和分片服务器,后启动路由实例启动路由实例:(三台机器)

vi /usr/local/mongodb/conf/mongos.conf
#内容
pidfilepath = /usr/local/mongodb/mongos/log/mongos.pid
logpath = /usr/local/mongodb/mongos/log/mongos.log
logappend = true

bind_ip = 0.0.0.0
port = 20000
fork = true

#监听的配置服务器,只能有1个或者3个 configs为配置服务器的副本集名字
configdb = configs/192.168.0.111:21000,192.168.0.112:21000,192.168.0.217:21000
 
#设置最大连接数
maxConns=20000

启动三台服务器的mongos server

mongos -f /usr/local/mongodb/conf/mongos.conf
5、启用分片

目前搭建了mongodb配置服务器、路由服务器,各个分片服务器,不过应用程序连接到mongos路由服务器并不能使用分片机制,还需要在程序里设置分片配置,让分片生效。

#登陆任意一台mongos
mongo --port 20000
#使用admin数据库
use  admin
#串联路由服务器与分配副本集
sh.addShard("shard1/192.168.0.111:27001,192.168.0.112:27001,192.168.0.217:27001")
sh.addShard("shard2/192.168.0.111:27002,192.168.0.112:27002,192.168.0.217:27002")
sh.addShard("shard3/192.168.0.111:27003,192.168.0.112:27003,192.168.0.217:27003")
#查看集群状态
sh.status()
6、分片测试

目前配置服务、路由服务、分片服务、副本集服务都已经串联起来了,但我们的目的是希望插入数据,数据能够自动分片。连接在mongos上,准备让指定的数据库、指定的集合分片生效。

#指定testdb库分片生效
db.runCommand( { enablesharding :"testdb"});
#指定数据库里需要分片的集合(testdb.table1)和片键(以索引作为分片的键值进行分片)
db.runCommand( { shardcollection : "testdb.table1",key : {id: 1} } )
#登录
mongo --port 20000

#使用testdb
use  testdb;

#插入测试数据
for (var i = 1; i <= 100000; i++) db.table1.save({id:i,"test1":"testval1"});

#查看分片情况如下,部分无关信息省掉了
db.table1.stats();
                "shard1" : {
                        "ns" : "testdb.table1",
                        "size" : 54,
                        "count" : 1,
                        "avgObjSize" : 54,
                        "storageSize" : 16384,
                        "capped" : false,
                        "wiredTiger" : {
                                "metadata" : {
                                        "formatVersion" : 1
                                }
                "shard2" : {
                        "ns" : "testdb.table1",
                        "size" : 972,
                        "count" : 18,
                        "avgObjSize" : 54,
                        "storageSize" : 16384,
                        "capped" : false,
                        "wiredTiger" : {
                                "metadata" : {
                                        "formatVersion" : 1
                                }
                "shard3" : {
                        "ns" : "testdb.table1",
                        "size" : 5398974,
                        "count" : 99981,
                        "avgObjSize" : 54,
                        "storageSize" : 1716224,
                        "capped" : false,
                        "wiredTiger" : {
                                "metadata" : {
                                        "formatVersion" : 1
                                }


可以看到数据分到3个分片,各自分片数量为: shard1 “count” : 1,shard2 “count” : 18,shard3 “count” : 99981。已经成功了!
#查看集群的状态
mongos> sh.status()
--- Sharding Status --- 
  sharding version: {
        "_id" : 1,
        "minCompatibleVersion" : 5,
        "currentVersion" : 6,
        "clusterId" : ObjectId("5dd20dcb4e1701b7accb3d02")
}
  shards:
        {  "_id" : "shard1",  "host" : "shard1/192.168.0.111:27001,192.168.0.217:27001",  "state" : 1 }
        {  "_id" : "shard2",  "host" : "shard2/192.168.0.111:27002,192.168.0.112:27002",  "state" : 1 }
        {  "_id" : "shard3",  "host" : "shard3/192.168.0.111:27003,192.168.0.217:27003",  "state" : 1 }
  active mongoses:
        "3.4.6" : 2
        "3.4.0" : 1
 autosplit:
        Currently enabled: yes
  balancer:
        Currently enabled:  yes
        Currently running:  no
                Balancer lock taken at Mon Nov 18 2019 11:19:40 GMT+0800 (CST) by ConfigServer:Balancer
        Failed balancer rounds in last 5 attempts:  0
        Migration Results for the last 24 hours: 
                2 : Success
  databases:
        {  "_id" : "testdb",  "primary" : "shard3",  "partitioned" : true }
                testdb.table1
                        shard key: { "id" : 1 }
                        unique: false
                        balancing: true
                        chunks:
                                shard1  1
                                shard2  1
                                shard3  1
                        { "id" : { "$minKey" : 1 } } -->> { "id" : 2 } on : shard1 Timestamp(2, 0) 
                        { "id" : 2 } -->> { "id" : 20 } on : shard2 Timestamp(3, 0) 
                        { "id" : 20 } -->> { "id" : { "$maxKey" : 1 } } on : shard3 Timestamp(3, 1) 
7、添加分片成员
#创建好分片副本节点后,随机登录一台mongos
mongo --port 20000

#添加分片
sh.addShard("shard1/192.168.3.23:10001,192.168.3.24:10002")

参考:https://www.cnblogs.com/ityouknow/p/7344005.html

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 205,236评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,867评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,715评论 0 340
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,899评论 1 278
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,895评论 5 368
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,733评论 1 283
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,085评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,722评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 43,025评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,696评论 2 323
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,816评论 1 333
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,447评论 4 322
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,057评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,009评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,254评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,204评论 2 352
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,561评论 2 343