mongodb是最常用的nodql数据库,这篇文章介绍如何搭建高可用的mongodb副本集群。
相关概念
在搭建集群之前,需要首先了解几个概念:路由,分片、副本集、配置服务器等。
1.mongos,数据库集群请求的入口,所有的请求都通过mongos进行协调,不需要在应用程序添加一个路由选择器,mongos自己就是一个请求分发中心,它负责把对应的数据请求请求转发到对应的shard服务器上。在生产环境通常有多mongos作为请求的入口,防止其中一个挂掉所有的mongodb请求都没有办法操作。
2.config server,顾名思义为配置服务器,存储所有数据库元信息(路由、分片)的配置。mongos本身没有物理存储分片服务器和数据路由信息,只是缓存在内存里,配置服务器则实际存储这些数据。mongos第一次启动或者关掉重启就会从 config server 加载配置信息,以后如果配置服务器信息变化会通知到所有的 mongos 更新自己的状态,这样 mongos 就能继续准确路由。在生产环境通常有多个 config server 配置服务器,因为它存储了分片路由的元数据,防止数据丢失!
3.shard,分片(sharding)是指将数据库拆分,将其分散在不同的机器上的过程。将数据分散到不同的机器上,不需要功能强大的服务器就可以存储更多的数据和处理更大的负载。基本思想就是将集合切成小块,这些块分散到若干片里,每个片只负责总数据的一部分,最后通过一个均衡器来对各个分片进行均衡(数据迁移)。
4.replica set,中文翻译副本集,其实就是shard的备份,防止shard挂掉之后数据丢失。复制提供了数据的冗余备份,并在多个服务器上存储数据副本,提高了数据的可用性, 并可以保证数据的安全性。
5.仲裁者(Arbiter),是复制集中的一个MongoDB实例,它并不保存数据。仲裁节点使用最小的资源并且不要求硬件设备,不能将Arbiter部署在同一个数据集节点中,可以部署在其他应用服务器或者监视服务器中,也可部署在单独的虚拟机中。为了确保复制集中有奇数的投票成员(包括primary),需要添加仲裁节点做为投票,否则primary不能运行时不会自动切换primary。
简单了解之后,我们可以这样总结一下,应用请求mongos来操作mongodb的增删改查,配置服务器存储数据库元信息,并且和mongos做同步,数据最终存入在shard(分片)上,为了防止数据丢失同步在副本集中存储了一份,仲裁在数据存储到分片的时候决定存储到哪个节点。
副本集的搭建
MongoDB复制原理
mongodb的复制至少需要两个节点。其中一个是主节点,负责处理客户端请求,其余的都是从节点,负责复制主节点上的数据。
mongodb各个节点常见的搭配方式为:一主一从, 一主多从。
主节点记录其上的所有操作oplog,从节点定期轮询主节点获取这些操作,然后对自己的数据副本执行这些操作。
副本集的特征
- 1.N个节点的集群
- 2.任何节点可作为主节点
- 3.所有写操作都在主节点上
- 4.自动故障迁移
- 5.自动恢复
单机搭建副本集集群
1.建立data文件夹,存放数据
在data文件夹中创建master(主节点),slaver(从节点),arbiter(仲裁节点), 分别存放每个节点的数据
2.创建log文件夹,存放各节点的log数据
3.创建config文件夹
这个文件下在创建master, slaver,arbiter文件;然后在每个文件夹下创建mongodb的配置文件如下:
(1)master.conf
dbpath =path/mongodb/data/master
logpath = path/mongodb/log/master/master.log
pidfilepath = path/mongodb/master.pid
directoryperdb = true
logappend = true
replSet = away
bind_ip = 192.168.1.232
port = 27018
fork = true
(2)slaver.conf
dbpath =path/mongodb/data/slaver
logpath =path/mongodb/log/slaver/slaver.log
pidfilepath = path/mongodb/slaver.pid
directoryperdb = true
logappend = true
replSet = away
bind_ip = 192.168.1.232
port = 27019
fork = true
(3)arbiter.conf
dbpath = path/mongodb/data/arbiter
logpath = path/mongodb/log/arbiter/arbiter.log
pidfilepath =path/mongodb/arbiter.pid
directoryperdb = true
logappend = true
replSet = away
bind_ip = 192.168.1.232
port = 27020
fork = true
(4)参数说明
dbpath:数据存放目录
logpath:日志存放路径
pidfilepath:进程文件,方便停止mongodb
directoryperdb:为每个数据库按照数据库名建立文件夹存放
logappend:已追加的方式记录日志
replSet:replica set的名字
bind_ip:mongodb所绑定的ip
port:mongodb�进程所使用的端口27017
oplogSize:mongodb操作日志问价的最大大小。单位为MB,默认为硬盘剩余空间5%
fork:以后台的方式运行进程
noprealloc:与分配方式 默认false:使用与分配方式来保证写入性能的稳定性,与分配在后台运行,并且每个预分配的文件都用0进行填充。这会让MongoDB始终保持额外的空间和空余的数据文件,从而避免数据增长过快而带来的分配磁盘空间引起的阻塞。设置为true来禁用与分配,会缩短启动时间,但正常操作过程中,可能性能回显著下降;
4.启动mongodb
nohup master/bin/mongod f master/config/master.conf &
nohup arbiter/bin/mongod f arbiter/config/arbiter.conf &
nohup slaver/bin/mongod f slaver/config/slaver.conf &
5.配置主从仲裁节点
可以通过客户端链接mongodb, 也可以直接在三个节点中选择一个链接mongodb
./mongo 39.106.209.11:27018
use admin
config = {
"_id":"awaydev",
"members":[
{"_id":0,"host":"172.17.247.225:27117"},
{"_id":1,"host":"172.17.247.225:27118"},
{"_id":2,"host":"172.17.247.225:27119",arbiterOnly:true}
]
}
config = {
"_id":"away",
"members":[
{"_id":0,"host":"39.106.209.11:27017"},
{"_id":1,"host":"101.201.236.152:27017"},
{"_id":2,"host":"39.106.214.228:27017"},
{"_id":3,"host":"147.95.220.65:27017",arbiterOnly:true}
]
}
config = {
"_id":"away",
"members":[
{"_id":0,"host":"localhost:27018"},
{"_id":1,"host":"localhost:27019"},
{"_id":2,"host":"localhost:27020",arbiterOnly:true}
]
}
config = {
"_id":"away",
"members":[
{"_id":0,"host":"172.17.0.1:27018"},
{"_id":1,"host":"172.17.0.1:27019"},
{"_id":2,"host":"172.17.0.1:27020", arbiterOnly:true}
]
}
rs.initiate(config) //初始化
{ "ok" : 1 }
rs.status()
{
"set" : "away",
"date" : ISODate("20180420T03:52:50.107Z"),
"myState" : 1,
"members" : [
{
"_id" : 0,
"name" : "192.168.1.232:27018",
"health" : 1,
"state" : 1,
"stateStr" : "PRIMARY",
"uptime" : 688,
"optime" : Timestamp(1524196332, 1),
"optimeDate" : ISODate("20180420T03:52:12Z"),
"electionTime" : Timestamp(1524196335, 1),
"electionDate" : ISODate("20180420T03:52:15Z"),
"configVersion" : 1,
"self" : true
},
{
"_id" : 1,
"name" : "192.168.1.232:27019",
"health" : 1,
"state" : 2,
"stateStr" : "SECONDARY",
"uptime" : 38,
"optime" : Timestamp(1524196332, 1),
"optimeDate" : ISODate("20180420T03:52:12Z"),
"lastHeartbeat" : ISODate("20180420T03:52:49.621Z"),
"lastHeartbeatRecv" : ISODate("20180420T03:52:49.621Z"),
"pingMs" : 0,
"lastHeartbeatMessage" : "could not find member to sync from",
"configVersion" : 1
},
{
"_id" : 2,
"name" : "192.168.1.232:27020",
"health" : 1,
"state" : 7,
"stateStr" : "ARBITER",
"uptime" : 38,
"lastHeartbeat" : ISODate("20180420T03:52:49.621Z"),
"lastHeartbeatRecv" : ISODate("20180420T03:52:49.623Z"),
"pingMs" : 0,
"configVersion" : 1
}
],
"ok" : 1
}
现在基本上已完成了集群的搭建工作;
6.查看oplog的信息
db.printReplicationInfo() or db.getReplicationInfo()
{
"logSizeMB" : 14798.308486938477,
"usedMB" : 0.01,
"timeDiff" : 407,
"timeDiffHours" : 0.11,
"tFirst" : "Fri Apr 20 2018 11:52:12 GMT+0800 (CST)",
"tLast" : "Fri Apr 20 2018 11:58:59 GMT+0800 (CST)",
"now" : "Fri Apr 20 2018 14:28:13 GMT+0800 (CST)"
}
rs.printReplicationInfo()
configured oplog size: 14798.308486938477MB
log length start to end: 407secs (0.11hrs)
oplog first event time: Fri Apr 20 2018 11:52:12 GMT+0800 (CST)
oplog last event time: Fri Apr 20 2018 11:58:59 GMT+0800 (CST)
now: Fri Apr 20 2018 14:27:28 GMT+0800 (CST)
configured oplog sizep oplog文件大小
log length start to end: oplog日志的启用时间段
oplog first event time:第一个事务日志的产生时间
oplog last event time:最后一个事务日志的产生条件
now: 现在的时间
查看slave状态
db.printSlaveReplicationInfo() db.printSlaveReplicationInfo()
source: 192.168.1.232:27019
syncedTo: Fri Apr 20 2018 11:58:59 GMT+0800 (CST)
0 secs (0 hrs) behind the primary
- source -----从库的IP及端口
- syncedTo -----当前的同步情况,延迟多久等信息
7.增加一个节点
1.同上,建立一个文件包含bin、data、config、log等文件
2.启动mongodb
3.添加次新节点到现有的Replica sets
away:PRIMARY> rs.add("192.168.56.90:27017")
{ "ok" : 1 }
8.删除一个节点
进入主节点,执行
rs.remove("192.168.56.90:27017")