Mongodb集群搭建方式

mongodb是最常用的nodql数据库,这篇文章介绍如何搭建高可用的mongodb副本集群。

相关概念

在搭建集群之前,需要首先了解几个概念:路由,分片、副本集、配置服务器等。

  • 1.mongos,数据库集群请求的入口,所有的请求都通过mongos进行协调,不需要在应用程序添加一个路由选择器,mongos自己就是一个请求分发中心,它负责把对应的数据请求请求转发到对应的shard服务器上。在生产环境通常有多mongos作为请求的入口,防止其中一个挂掉所有的mongodb请求都没有办法操作。

  • 2.config server,顾名思义为配置服务器,存储所有数据库元信息(路由、分片)的配置。mongos本身没有物理存储分片服务器和数据路由信息,只是缓存在内存里,配置服务器则实际存储这些数据。mongos第一次启动或者关掉重启就会从 config server 加载配置信息,以后如果配置服务器信息变化会通知到所有的 mongos 更新自己的状态,这样 mongos 就能继续准确路由。在生产环境通常有多个 config server 配置服务器,因为它存储了分片路由的元数据,防止数据丢失!

  • 3.shard,分片(sharding)是指将数据库拆分,将其分散在不同的机器上的过程。将数据分散到不同的机器上,不需要功能强大的服务器就可以存储更多的数据和处理更大的负载。基本思想就是将集合切成小块,这些块分散到若干片里,每个片只负责总数据的一部分,最后通过一个均衡器来对各个分片进行均衡(数据迁移)。

  • 4.replica set,中文翻译副本集,其实就是shard的备份,防止shard挂掉之后数据丢失。复制提供了数据的冗余备份,并在多个服务器上存储数据副本,提高了数据的可用性, 并可以保证数据的安全性。

  • 5.仲裁者(Arbiter),是复制集中的一个MongoDB实例,它并不保存数据。仲裁节点使用最小的资源并且不要求硬件设备,不能将Arbiter部署在同一个数据集节点中,可以部署在其他应用服务器或者监视服务器中,也可部署在单独的虚拟机中。为了确保复制集中有奇数的投票成员(包括primary),需要添加仲裁节点做为投票,否则primary不能运行时不会自动切换primary。

简单了解之后,我们可以这样总结一下,应用请求mongos来操作mongodb的增删改查,配置服务器存储数据库元信息,并且和mongos做同步,数据最终存入在shard(分片)上,为了防止数据丢失同步在副本集中存储了一份,仲裁在数据存储到分片的时候决定存储到哪个节点。

副本集的搭建

Replica Set架构

MongoDB复制原理

mongodb的复制至少需要两个节点。其中一个是主节点,负责处理客户端请求,其余的都是从节点,负责复制主节点上的数据。
mongodb各个节点常见的搭配方式为:一主一从, 一主多从。
主节点记录其上的所有操作oplog,从节点定期轮询主节点获取这些操作,然后对自己的数据副本执行这些操作。

副本集的特征

  • 1.N个节点的集群
  • 2.任何节点可作为主节点
  • 3.所有写操作都在主节点上
  • 4.自动故障迁移
  • 5.自动恢复

单机搭建副本集集群

1.建立data文件夹,存放数据

在data文件夹中创建master(主节点),slaver(从节点),arbiter(仲裁节点), 分别存放每个节点的数据

2.创建log文件夹,存放各节点的log数据

3.创建config文件夹

这个文件下在创建master, slaver,arbiter文件;然后在每个文件夹下创建mongodb的配置文件如下:
(1)master.conf

dbpath =path/mongodb/data/master
logpath = path/mongodb/log/master/master.log
pidfilepath = path/mongodb/master.pid
directoryperdb = true
logappend = true
replSet = away
bind_ip = 192.168.1.232
port = 27018
fork = true

(2)slaver.conf

dbpath =path/mongodb/data/slaver
logpath =path/mongodb/log/slaver/slaver.log
pidfilepath = path/mongodb/slaver.pid
directoryperdb = true
logappend = true
replSet = away
bind_ip = 192.168.1.232
port = 27019
fork = true

(3)arbiter.conf

dbpath = path/mongodb/data/arbiter
logpath = path/mongodb/log/arbiter/arbiter.log
pidfilepath =path/mongodb/arbiter.pid
directoryperdb = true
logappend = true
replSet = away
bind_ip = 192.168.1.232
port = 27020
fork = true

(4)参数说明

dbpath:数据存放目录
logpath:日志存放路径
pidfilepath:进程文件,方便停止mongodb
directoryperdb:为每个数据库按照数据库名建立文件夹存放
logappend:已追加的方式记录日志
replSet:replica set的名字
bind_ip:mongodb所绑定的ip
port:mongodb�进程所使用的端口27017
oplogSize:mongodb操作日志问价的最大大小。单位为MB,默认为硬盘剩余空间5%
fork:以后台的方式运行进程
noprealloc:与分配方式 默认false:使用与分配方式来保证写入性能的稳定性,与分配在后台运行,并且每个预分配的文件都用0进行填充。这会让MongoDB始终保持额外的空间和空余的数据文件,从而避免数据增长过快而带来的分配磁盘空间引起的阻塞。设置为true来禁用与分配,会缩短启动时间,但正常操作过程中,可能性能回显著下降;

4.启动mongodb

nohup master/bin/mongod f master/config/master.conf &
nohup arbiter/bin/mongod f arbiter/config/arbiter.conf &
nohup slaver/bin/mongod f slaver/config/slaver.conf &

5.配置主从仲裁节点

可以通过客户端链接mongodb, 也可以直接在三个节点中选择一个链接mongodb

./mongo 39.106.209.11:27018
use admin
config = {
   "_id":"awaydev",
  "members":[
    {"_id":0,"host":"172.17.247.225:27117"},
    {"_id":1,"host":"172.17.247.225:27118"},
    {"_id":2,"host":"172.17.247.225:27119",arbiterOnly:true}
  ]
}
config = {
  "_id":"away",
  "members":[
    {"_id":0,"host":"39.106.209.11:27017"},
    {"_id":1,"host":"101.201.236.152:27017"},
    {"_id":2,"host":"39.106.214.228:27017"},
    {"_id":3,"host":"147.95.220.65:27017",arbiterOnly:true}
  ]
}
config = {
  "_id":"away",
  "members":[
    {"_id":0,"host":"localhost:27018"},
    {"_id":1,"host":"localhost:27019"},
    {"_id":2,"host":"localhost:27020",arbiterOnly:true}
  ]
}
config = {
   "_id":"away",
  "members":[
    {"_id":0,"host":"172.17.0.1:27018"},
    {"_id":1,"host":"172.17.0.1:27019"},
    {"_id":2,"host":"172.17.0.1:27020", arbiterOnly:true}
  ]
}
rs.initiate(config) //初始化
 { "ok" : 1 }
rs.status()
{
  "set" : "away",
  "date" : ISODate("20180420T03:52:50.107Z"),
  "myState" : 1,
  "members" : [
    {
      "_id" : 0,
      "name" : "192.168.1.232:27018",
      "health" : 1,
      "state" : 1,
      "stateStr" : "PRIMARY",
      "uptime" : 688,
      "optime" : Timestamp(1524196332, 1),
      "optimeDate" : ISODate("20180420T03:52:12Z"),
      "electionTime" : Timestamp(1524196335, 1),
      "electionDate" : ISODate("20180420T03:52:15Z"),
      "configVersion" : 1,
      "self" : true
    },
    {
      "_id" : 1,
      "name" : "192.168.1.232:27019",
      "health" : 1,
      "state" : 2,
      "stateStr" : "SECONDARY",
      "uptime" : 38,
      "optime" : Timestamp(1524196332, 1),
      "optimeDate" : ISODate("20180420T03:52:12Z"),
      "lastHeartbeat" : ISODate("20180420T03:52:49.621Z"),
      "lastHeartbeatRecv" : ISODate("20180420T03:52:49.621Z"),
      "pingMs" : 0,
      "lastHeartbeatMessage" : "could not find member to sync from",
      "configVersion" : 1
    },
    {
      "_id" : 2,
      "name" : "192.168.1.232:27020",
      "health" : 1,
      "state" : 7,
      "stateStr" : "ARBITER",
      "uptime" : 38,
      "lastHeartbeat" : ISODate("20180420T03:52:49.621Z"),
      "lastHeartbeatRecv" : ISODate("20180420T03:52:49.623Z"),
      "pingMs" : 0,
      "configVersion" : 1
   }
  ],
"ok" : 1
}

现在基本上已完成了集群的搭建工作;

6.查看oplog的信息

db.printReplicationInfo() or db.getReplicationInfo()
{
  "logSizeMB" : 14798.308486938477,
  "usedMB" : 0.01,
  "timeDiff" : 407,
  "timeDiffHours" : 0.11,
  "tFirst" : "Fri Apr 20 2018 11:52:12 GMT+0800 (CST)",
  "tLast" : "Fri Apr 20 2018 11:58:59 GMT+0800 (CST)",
  "now" : "Fri Apr 20 2018 14:28:13 GMT+0800 (CST)"
}
rs.printReplicationInfo()
configured oplog size: 14798.308486938477MB
log length start to end: 407secs (0.11hrs)
oplog first event time: Fri Apr 20 2018 11:52:12 GMT+0800 (CST)
oplog last event time: Fri Apr 20 2018 11:58:59 GMT+0800 (CST)
now: Fri Apr 20 2018 14:27:28 GMT+0800 (CST)
configured oplog sizep oplog文件大小
log length start to end: oplog日志的启用时间段
oplog first event time:第一个事务日志的产生时间
oplog last event time:最后一个事务日志的产生条件
now: 现在的时间

查看slave状态

db.printSlaveReplicationInfo() db.printSlaveReplicationInfo()
source: 192.168.1.232:27019
syncedTo: Fri Apr 20 2018 11:58:59 GMT+0800 (CST)
0 secs (0 hrs) behind the primary
  • source -----从库的IP及端口
  • syncedTo -----当前的同步情况,延迟多久等信息

7.增加一个节点

1.同上,建立一个文件包含bin、data、config、log等文件
2.启动mongodb
3.添加次新节点到现有的Replica sets

away:PRIMARY> rs.add("192.168.56.90:27017")
{ "ok" : 1 }

8.删除一个节点

进入主节点,执行

rs.remove("192.168.56.90:27017")
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,530评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 86,403评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,120评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,770评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,758评论 5 367
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,649评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,021评论 3 398
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,675评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,931评论 1 299
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,659评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,751评论 1 330
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,410评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,004评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,969评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,203评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,042评论 2 350
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,493评论 2 343

推荐阅读更多精彩内容