MongoDB 日常运维实践总结

一、MongoDB 集群简介

MongoDB是一个基于分布式文件存储的数据库,其目的在于为WEB应用提供可扩展的高性能数据存储解决方案。下面将以3台机器介绍最常见的集群方案。具体介绍,可以查看官网 https://docs.mongodb.com/v3.4/introduction/

1、集群组件的介绍

  • mongos(路由处理):作为Client与MongoDB集群的请求入口,所有用户请求都会透过Mongos协调,它会将数据请求发到对应的Shard(mongod)服务器上,再将数据合并后回传给用户。

  • config server(配置节点):即:配置服务器;主要保存数据库的元数据,包含数据的分布(分片)以及数据结构,mongos收到client发出的需求后,会从config server加载配置信息并缓存于内存中。一般在生产环境会配置不只一台config server,因为它保存的元数据极为重要,若损坏则影响整个集群运作。

  • shard(分片实例存储数据):shard就是分片。MongoDB利用分片的机制来实现数据分布存储与处理,达到横向扩容的目的。默认情况下,数据在分片之间会自动进行移转,以达到平衡,此动作是靠一个叫平衡器(balancer)的机制达成。

  • replica set(副本集):副本集实现了数据库高可用,若没做副本集,则一旦存放数据的服务器节点挂掉,数据就丢失了,相反若配置了副本集,则同样的数据会保存在副本服务器中(副本节点),一般副本集包含了一个主节点与多个副本节点,必要时还会配置arbiter(仲裁节点)作为节点挂掉时投票用。

  • arbiter(仲裁节点):仲裁服务器本身不包含数据,仅能在主节点故障时,检测所有副本服务器并选举出新的主节点,其实现方式是通过主节点、副本节点、仲裁服务器之间的心跳(Heart beat)实现。

2、MongoDB应用场景

  • 网站数据:适合实时的插入,更新与查询,并具备网站实时数据存储所需的复制及高度伸缩性。

  • 缓存:由于性能很高,也适合作为信息基础设施的缓存层。在系统重启之后,搭建的持久化缓存可以避免下层的数据源过载。

  • 大尺寸、低价值的数据:使用传统的关系数据库存储一些数据时可能会比较贵,在此之前,很多程序员往往会选择传统的文件进行存储。

  • 高伸缩性的场景:非常适合由数十或者数百台服务器组成的数据库。

  • 用于对象及JSON数据的存储:MongoDB的BSON数据格式非常适合文档格式化的存储及查询。

3、选用MongoDB的缘由

选用MongoDB的数据是以BSON的数据格式,高度伸缩方便扩展,并且数据水平扩展非常简单,支持海量数据存储,性能强悍。

二、集群的监测

1、监测数据库存储统计信息

docker中进入mongos或shard实例,执行以下命令:

docker exec -it mongos bash;
mongo --port 20001;
use admin;
db.auth("root","XXX");

说明:通过此命令,可以查询集群的成员的集合数量、索引数量等相关数据。13个Mongodb GUI可视化管理工具,总有一款适合你

db.stats();

2、查看数据库的统计信息

说明:通过此命令,可以查看操作数量、内存使用状况、网络io等

db.runCommand( { serverStatus: 1 } );

3、检查复制集成员状态,需要账号密码有clusterAdmin角色权限

rs.status();

三、基本的运维操作

1、设置和查看慢查询

# 设置慢查询
db.setProfilingLevel(1,200);
# 查看慢查询级别
db.getProfilingLevel();
# 查询慢查询日志,此命令是针对于某一库进行设置
db.system.profile.find({ ns : 'dbName.collectionName'}).limit(10).sort( { ts : -1 } ).pretty();
# 设置慢查询抽样比例
db.setProfilingLevel(1, { sampleRate: 0.42 })
rs0:PRIMARY> db.setProfilingLevel(1, { sampleRate: 0.42 })
{
        "was" : 1,
        "slowms" : 200,
        "sampleRate" : 1,
        "ok" : 1,
        "operationTime" : Timestamp(1536309735, 1),
        "$clusterTime" : {
                "clusterTime" : Timestamp(1536309735, 1),
                "signature" : {
                        "hash" : BinData(0,"AAAAAAAAAAAAAAAAAAAAAAAAAAA="),
                        "keyId" : NumberLong(0)
                }
        }
}
rs0:PRIMARY>
rs0:PRIMARY> db.getProfilingStatus()
{
        "was" : 1,
        "slowms" : 200,
        "sampleRate" : 0.42,
        "operationTime" : Timestamp(1536309775, 1),
        "$clusterTime" : {
                "clusterTime" : Timestamp(1536309775, 1),
                "signature" : {
                        "hash" : BinData(0,"AAAAAAAAAAAAAAAAAAAAAAAAAAA="),
                        "keyId" : NumberLong(0)
                }
        }
}
 
 
注释:
By default, sampleRate is set to 1.0, meaning all slow operations are profiled.
When sampleRate is set between 0 and 1, databases with profiling level 1 will
only profile a randomly sampled percentage of slow operations according to sampleRate.
 
sampleRate 参数的默认值是1.0,即收集所有慢查询,此参数的范围值是0到1.当级别设置为1会按照sampleRate 设置的值随机抽取百分比的慢操作。
除了在运行时设置慢查询外,还可以在命令模式下启动时设置:
mongod --profile 1 --slowms 15 --slowOpSampleRate 0.5
也可以将参数放置到配置文件:
profile=1
slowms=200
slowOpSampleRate=0.5
 
profiler的数据存储在MongoDB中的system.profile collection。
在主库修改system.profile的集合的大小:
步骤如下:
Disable profiling.
Drop the system.profile collection.
Create a new system.profile collection.
Re-enable profiling.
 
--修改为4M:
db.setProfilingLevel(0)
db.system.profile.drop()
db.createCollection( "system.profile", { capped: true, size:4000000 } )
db.setProfilingLevel(1)
 
--慢查询操作的查询:
 
--慢查询操作的可视化:
mongoDB的慢查询操作可以结合PMM的监控PMM-QAN,但是支持MongoDB 3.2及以上版本。
需要2个步骤:
1.设置必需的账号
2.开启profiler。
在MongoDB设置账号和权限:
db.getSiblingDB("admin").createUser({
    user: "mongodb_exporter",
    pwd: "mongodb_exporter",
    roles: [
        { role: "clusterMonitor", db: "admin" },
        { role: "read", db: "local" }
    ]
})
 
开启profiler:
$ mongod --dbpath=DATABASEDIR --profile 2 --slowms 200 --rateLimit 100
或者写入配置文件:
operationProfiling:
   slowOpThresholdMs: 200
   mode: slowOp
   rateLimit: 100
 
https://docs.mongodb.com/manual/tutorial/manage-the-database-profiler/
https://www.percona.com/doc/percona-monitoring-and-management/conf-mongodb.html

2、查看执行操作时间较长的动作

db.currentOp({"active" : true,"secs_running" : { "$gt" : 2000 }});

3、动态调整日志级别和设置缓存大小

# 设置日志级别参数
db.adminCommand( { "getParameter": 1, "logLevel":1});
# 设置cache大小参数
db.adminCommand( { "setParameter": 1, "wiredTigerEngineRuntimeConfig": "cache_size=4G"});

4、添加和移除复制集成员

# 查看复制集成员
rs.status().members;
# 添加成员
rs.add('127.0.0.1:20001');
# 移除成员
rs.remove('127.0.0.1:20001');

删除实录:

myReplSet:PRIMARY> rs.remove('172.26.189.240:27017');
{
    "ok" : 1,
    "$clusterTime" : {
        "clusterTime" : Timestamp(1646553977, 2),
        "signature" : {
            "hash" : BinData(0,"WEtmdj3tqkwWt3zAsrr3/yWrQnw="),
            "keyId" : NumberLong("7070066341641715716")
        }
    },
    "operationTime" : Timestamp(1646553977, 2)
}
myReplSet:PRIMARY> rs.status().members;
[
    {
        "_id" : 0,
        "name" : "172.26.189.239:27017",
        "health" : 1,
        "state" : 1,
        "stateStr" : "PRIMARY",
        "uptime" : 78972,
        "optime" : {
            "ts" : Timestamp(1646553977, 2),
            "t" : NumberLong(6)
        },
        "optimeDate" : ISODate("2022-03-06T08:06:17Z"),
        "lastAppliedWallTime" : ISODate("2022-03-06T08:06:17.544Z"),
        "lastDurableWallTime" : ISODate("2022-03-06T08:06:17.544Z"),
        "syncSourceHost" : "",
        "syncSourceId" : -1,
        "infoMessage" : "",
        "electionTime" : Timestamp(1646475275, 1),
        "electionDate" : ISODate("2022-03-05T10:14:35Z"),
        "configVersion" : 2,
        "configTerm" : 6,
        "self" : true,
        "lastHeartbeatMessage" : ""
    },
    {
        "_id" : 2,
        "name" : "172.26.189.241:27017",
        "health" : 1,
        "state" : 7,
        "stateStr" : "ARBITER",
        "uptime" : 78970,
        "lastHeartbeat" : ISODate("2022-03-06T08:06:25.545Z"),
        "lastHeartbeatRecv" : ISODate("2022-03-06T08:06:25.549Z"),
        "pingMs" : NumberLong(0),
        "lastHeartbeatMessage" : "",
        "syncSourceHost" : "",
        "syncSourceId" : -1,
        "infoMessage" : "",
        "configVersion" : 2,
        "configTerm" : 6
    }
]
myReplSet:PRIMARY>
#把它重新加回来
myReplSet:PRIMARY> rs.add('172.26.189.240:27017');
{
    "operationTime" : Timestamp(1646554027, 1),
    "ok" : 0,
    "errmsg" : "Rejecting reconfig where the new config has a PSA topology and the secondary is electable, but the old config contains only one writable node. Refer to https://docs.mongodb.com/manual/reference/method/rs.reconfigForPSASet/ for next steps on reconfiguring a PSA set.",
    "code" : 103,
    "codeName" : "NewReplicaSetConfigurationIncompatible",
    "$clusterTime" : {
        "clusterTime" : Timestamp(1646554027, 1),
        "signature" : {
            "hash" : BinData(0,"ULbeSKepCJCF9oIsjiks2coqWsI="),
            "keyId" : NumberLong("7070066341641715716")
        }
    }
}
myReplSet:PRIMARY>
#根据https://docs.mongodb.com/manual/reference/method/rs.reconfigForPSASet/ 提示
#第一步,使用rs.conf()方法检索包含副本集当前配置的文档,并将该文档存储在局部变量cfg中。
myReplSet:PRIMARY> cfg = rs.conf();
{
    "_id" : "myReplSet",
    "version" : 2,
    "term" : 6,
    "protocolVersion" : NumberLong(1),
    "writeConcernMajorityJournalDefault" : true,
    "members" : [
        {
            "_id" : 0,
            "host" : "172.26.189.239:27017",
            "arbiterOnly" : false,
            "buildIndexes" : true,
            "hidden" : false,
            "priority" : 1,
            "tags" : {
                
            },
            "slaveDelay" : NumberLong(0),
            "votes" : 1
        },
        {
            "_id" : 2,
            "host" : "172.26.189.241:27017",
            "arbiterOnly" : true,
            "buildIndexes" : true,
            "hidden" : false,
            "priority" : 0,
            "tags" : {
                
            },
            "slaveDelay" : NumberLong(0),
            "votes" : 1
        }
    ],
    "settings" : {
        "chainingAllowed" : true,
        "heartbeatIntervalMillis" : 2000,
        "heartbeatTimeoutSecs" : 10,
        "electionTimeoutMillis" : 10000,
        "catchUpTimeoutMillis" : -1,
        "catchUpTakeoverDelayMillis" : 30000,
        "getLastErrorModes" : {
            
        },
        "getLastErrorDefaults" : {
            "w" : 1,
            "wtimeout" : 0
        },
        "replicaSetId" : ObjectId("621debd68919ec9f88b0feba")
    }
}
第二步,将新的次要成员添加到members数组中。在这种配置中,新的辅助节点被添加到memberIndex 1。memberIndex与数组索引相同。有关其他设置,请参阅副本集配置设置。
例子:
cfg["members"] = [
  {
     "_id" : 0,
     "host" : "mongodb0.example.net:27017",
     "arbiterOnly" : false,
     "buildIndexes" : true,
     "hidden" : false,
     "priority" : 1,
     "tags" : {},
     "secondaryDelaySecs" : Long("0"),
     "votes" : 1
  },
  {
     "_id" : 1,
     "host" : "mongodb2.example.net:27017",
     "arbiterOnly" : false,
     "buildIndexes" : true,
     "hidden" : false,
     "priority" : 2,
     "tags" : {},
     "secondaryDelaySecs" : Long("0"),
     "votes" : 1
  },
  {
     "_id" : 2,
     "host" : "mongodb2.example.net:27017",
     "arbiterOnly" : true,
     "buildIndexes" : true,
     "hidden" : false,
     "priority" : 0,
     "tags" : {},
     "secondaryDelaySecs" : Long("0"),
     "votes" : 1
  }
]

将自己的对应数据替换进去,注意 "secondaryDelaySecs" : Long("0"), 和你的配置"slaveDelay" : NumberLong(0),进行对比要和自己的配置一致,才不会报错
uncaught exception: ReferenceError: Long is not defined :
@(shell):10:6

自己修改后的语句

cfg["members"] = [
  {
     "_id" : 0,
     "host" : "172.26.189.239:27017",
     "arbiterOnly" : false,
     "buildIndexes" : true,
     "hidden" : false,
     "priority" : 1,
     "tags" : {},
     "slaveDelay" : NumberLong(0),
     "votes" : 1
  },
  {
     "_id" : 1,
     "host" : "172.26.189.240:27017",
     "arbiterOnly" : false,
     "buildIndexes" : true,
     "hidden" : false,
     "priority" : 2,
     "tags" : {},
     "slaveDelay" : NumberLong(0),
     "votes" : 1
  },
  {
     "_id" : 2,
     "host" : "172.26.189.241:27017",
     "arbiterOnly" : true,
     "buildIndexes" : true,
     "hidden" : false,
     "priority" : 0,
     "tags" : {},
     "slaveDelay" : NumberLong(0),
     "votes" : 1
  }
]

第三步,使用memberIndex 1和修改后的cfg调用rs.reconfigorpsaset()方法。memberIndex是新成员在members数组中的数组位置。
rs.reconfigForPSASet(1, cfg);

myReplSet:PRIMARY> rs.reconfigForPSASet(1, cfg);
Running first reconfig to give member at index 1 { votes: 1, priority: 0 }
Running second reconfig to give member at index 1 { priority: 2 }
{
    "ok" : 1,
    "$clusterTime" : {
        "clusterTime" : Timestamp(1646557821, 1),
        "signature" : {
            "hash" : BinData(0,"MliKIFIdMKJz/dJxWsGby0blJRg="),
            "keyId" : NumberLong("7070066341641715716")
        }
    },
    "operationTime" : Timestamp(1646557821, 1)
}

成功重新配置后,副本集配置如下所示:
myReplSet:PRIMARY> rs.status()
{
    "set" : "myReplSet",
    "date" : ISODate("2022-03-06T09:10:39.312Z"),
    "myState" : 2,
    "term" : NumberLong(7),
    "syncSourceHost" : "172.26.189.240:27017",
    "syncSourceId" : 1,
    "heartbeatIntervalMillis" : NumberLong(2000),
    "majorityVoteCount" : 2,
    "writeMajorityCount" : 2,
    "votingMembersCount" : 3,
    "writableVotingMembersCount" : 2,
    "optimes" : {
        "lastCommittedOpTime" : {
            "ts" : Timestamp(1646557831, 2),
            "t" : NumberLong(7)
        },
        "lastCommittedWallTime" : ISODate("2022-03-06T09:10:31.645Z"),
        "readConcernMajorityOpTime" : {
            "ts" : Timestamp(1646557831, 2),
            "t" : NumberLong(7)
        },
        "readConcernMajorityWallTime" : ISODate("2022-03-06T09:10:31.645Z"),
        "appliedOpTime" : {
            "ts" : Timestamp(1646557831, 2),
            "t" : NumberLong(7)
        },
        "durableOpTime" : {
            "ts" : Timestamp(1646557831, 2),
            "t" : NumberLong(7)
        },
        "lastAppliedWallTime" : ISODate("2022-03-06T09:10:31.645Z"),
        "lastDurableWallTime" : ISODate("2022-03-06T09:10:31.645Z")
    },
    "lastStableRecoveryTimestamp" : Timestamp(1646557831, 2),
    "electionParticipantMetrics" : {
        "votedForCandidate" : true,
        "electionTerm" : NumberLong(7),
        "lastVoteDate" : ISODate("2022-03-06T09:10:31.640Z"),
        "electionCandidateMemberId" : 1,
        "voteReason" : "",
        "lastAppliedOpTimeAtElection" : {
            "ts" : Timestamp(1646557821, 1),
            "t" : NumberLong(6)
        },
        "maxAppliedOpTimeInSet" : {
            "ts" : Timestamp(1646557821, 1),
            "t" : NumberLong(6)
        },
        "priorityAtElection" : 1,
        "newTermStartDate" : ISODate("2022-03-06T09:10:31.645Z"),
        "newTermAppliedDate" : ISODate("2022-03-06T09:10:32.645Z")
    },
    "members" : [
        {
            "_id" : 0,
            "name" : "172.26.189.239:27017",
            "health" : 1,
            "state" : 2,
            "stateStr" : "SECONDARY",
            "uptime" : 82824,
            "optime" : {
                "ts" : Timestamp(1646557831, 2),
                "t" : NumberLong(7)
            },
            "optimeDate" : ISODate("2022-03-06T09:10:31Z"),
            "lastAppliedWallTime" : ISODate("2022-03-06T09:10:31.645Z"),
            "lastDurableWallTime" : ISODate("2022-03-06T09:10:31.645Z"),
            "syncSourceHost" : "172.26.189.240:27017",
            "syncSourceId" : 1,
            "infoMessage" : "",
            "configVersion" : 4,
            "configTerm" : 7,
            "self" : true,
            "lastHeartbeatMessage" : ""
        },
        {
            "_id" : 1,
            "name" : "172.26.189.240:27017",
            "health" : 1,
            "state" : 1,
            "stateStr" : "PRIMARY",
            "uptime" : 17,
            "optime" : {
                "ts" : Timestamp(1646557831, 2),
                "t" : NumberLong(7)
            },
            "optimeDurable" : {
                "ts" : Timestamp(1646557831, 2),
                "t" : NumberLong(7)
            },
            "optimeDate" : ISODate("2022-03-06T09:10:31Z"),
            "optimeDurableDate" : ISODate("2022-03-06T09:10:31Z"),
            "lastAppliedWallTime" : ISODate("2022-03-06T09:10:31.645Z"),
            "lastDurableWallTime" : ISODate("2022-03-06T09:10:31.645Z"),
            "lastHeartbeat" : ISODate("2022-03-06T09:10:39.020Z"),
            "lastHeartbeatRecv" : ISODate("2022-03-06T09:10:37.644Z"),
            "pingMs" : NumberLong(37),
            "lastHeartbeatMessage" : "",
            "syncSourceHost" : "",
            "syncSourceId" : -1,
            "infoMessage" : "",
            "electionTime" : Timestamp(1646557831, 1),
            "electionDate" : ISODate("2022-03-06T09:10:31Z"),
            "configVersion" : 4,
            "configTerm" : 7
        },
        {
            "_id" : 2,
            "name" : "172.26.189.241:27017",
            "health" : 1,
            "state" : 7,
            "stateStr" : "ARBITER",
            "uptime" : 82822,
            "lastHeartbeat" : ISODate("2022-03-06T09:10:38.648Z"),
            "lastHeartbeatRecv" : ISODate("2022-03-06T09:10:37.647Z"),
            "pingMs" : NumberLong(0),
            "lastHeartbeatMessage" : "",
            "syncSourceHost" : "",
            "syncSourceId" : -1,
            "infoMessage" : "",
            "configVersion" : 4,
            "configTerm" : 7
        }
    ],
    "ok" : 1,
    "$clusterTime" : {
        "clusterTime" : Timestamp(1646557831, 2),
        "signature" : {
            "hash" : BinData(0,"JGx6vyRqndKwYUrHNvBNz2z/9wQ="),
            "keyId" : NumberLong("7070066341641715716")
        }
    },
    "operationTime" : Timestamp(1646557831, 2)
}
myReplSet:SECONDARY>

5、设置数据库和集合分片

# 在mongos admin库设置库允许分片
sh.enableSharding("dbName");
# 在mongos 的admin库设置集合分片片键
sh.shardCollection("dbName.collectionName", { filedName: 1} );

6、添加和移除分片

# 查看分片状态
sh.status();
# 在mongos执行添加分片(可以为单个实例或复制集)
db.runCommand( { removeShard: "shardName" } );
db.runCommand({addshard:"rs1/ip-1:20001,ip-2:20001,ip-3:20001"});
# 在mongos执行移除分片
db.runCommand( { removeShard: "shard3" } );
# 在mongos执行刷新mongos配置信息
db.runCommand("flushRouterConfig"));
  • 说明:移除分片命令至少执行两次才能成功删除,执行到state为completed才真正删除,否则就是没用删除成功,该分片处于{"draining" : true}状态,该状态下不但该分片没用删除成功,而且还影响接下来删除其他分片操作,遇到该状态再执行一次removeshard即可,最好就是删除分片时一直重复执行删除命令,直到state为completed; 还有一个需要注意的地方就是:被成功删除的分片如果想要再加入集群时,必须将data数据目录清理干净才可以再加入集群,否则即使能加入成功也不会存储数据,集合都不会被创建。

另外:在删除分片的时有可能整个过程出现无限{"draining" : true}状态,等多久还是这样,而且分片上面的块一个都没有移动到别的分片,解决办法是:在config的config数据库的shard集合中找到该分片的信息,并将draining字段由True改为False,再继续试着删除操作” 上面这句会立即返回,实际在后台执行。在数据移除的过程当中,一定要注意实例的日志信息,可能出现数据块在迁移的过程中,始终找不到边界条件,导致一直数据迁移不成功,一直重试,解决方案是删除边界数据,重启实例。

如果此分片为主分片,需要先迁移主分片。db.runCommand( { movePrimary: "XXX", to: "other" });在完成删除后,所有mongos上运行下面命令,再对外提供服务,当然也可以重新启动所有mongos实例 。

7、数据的导入导出

# 导出允许指定导出条件和字段
mongoexport -h 127.0.0.1 --port 20001 -uxxx -pxxx -d xxx -c mobileIndex -o XXX.txt 
mongoimport -h 127.0.0.1 --port 20001 -uxxx -pxxx -d xxx -c mobileIndex --file XXX.txt

四、MongoDB数据迁移

1、迁移复制集当中的成员

  • 关闭 mongod 实例,为了确保安全关闭,使用 shutdown 命令;
  • 将数据目录(即 dbPath )转移到新机器上;
  • 在新机器上启动 mongod,其中节点的数据目录为copy的文件目录 ;
  • 连接到复制集当前的主节点上;
    如果新节点的地址发生变化,使用 rs.reconfig() 更新 复制集配置文档 ;举例,下面的命令过程将成员中位于第 2 位的地址进行更新:
cfg = rs.conf()
cfg.members[2].host = "127.0.0.1:27017"
rs.reconfig(cfg)

使用 rs.conf() 确认使用了新的配置. 等待所有成员恢复正常,使用 rs.status() 检测成员状态。

2、迁移复制集主节点

在迁移主节点的时候,需要复制集选举出一个新的主节点,在进行选举的时候,复制集将读写,通常,这只会持续很短的时间,不过,应该尽可能在影响较小的时间段内迁移主节点.

主节点降级,以使得正常的 failover开始.要将主节点降级,连接到一个主节点,使用 replSetStepDown方法或者使用rs.stepDown()方法,下面的例子使用了 rs.stepDown()方法进行降级:

rs.stepDown()

等主节点降级为从节点,另一个成员成为 PRIMARY 之后,可以按照 “迁移复制集的一个成员”迁移这个降级了的节点.可以使用 rs.status()来确认状态的改变。

3、从复制集其他节点恢复数据

MongoDB 通过复制集能保证高可靠的数据存储,通常生产环境建议使用「3节点复制集」,这样即使其中一个节点崩溃了无法启动,我们可以直接将其数据清掉,重新启动后,以全新的 Secondary 节点加入复制集,或者是将其他节点的数据复制过来,重新启动节点,它会自动的同步数据,这样也就达到了恢复数据的目的。

关闭需要数据同步的节点

docker stop node;  # docker环境中
db.shutdownServer({timeoutSecs: 60}); # 非docker环境

拷贝目标节点机器的数据存储目录(/dbPath)到当前机器的指定目录。

scp 目标节点 shard/data -> 当前节点 shard/data

当前节点以复制过来的数据文件启动节点

将新的节点添加到复制集

# 进入复制集的主节点,执行添加新的节点命令
rs.add("hostNameNew:portNew"); 
# 等待所有成员恢复正常,检测成员状态
rs.status();
# 移除原来的节点
rs.remove("hostNameOld>:portOld"); 

五、MongoDB线上问题场景解决

1、MongoDB 新建索引导致库被锁

  • 问题说明:某线上千万级别集合,为优化业务,直接执行新建索引命令,导致整个库被锁,应用服务出现不可用。

  • 解决方案:找出此操作进程,并且杀死。改为后台新建索引,速度会很慢,但是不会影响业务,该索引只会在新建完成之后,才会生效;

# 查询运行时间超过200ms操作     
db.currentOp({"active" : true,"secs_running" : { "$gt" : 2000 }}) ;
# 杀死执行时间过长操作操作
db.killOp(opid)
# 后台新建索引
db.collectionNmae.ensureIndex({filedName:1}, {background:true});

2、MongoDB没有限制内存,导致实例退出

  • 问题说明:生产环境某台机器启动多个mongod实例,运行一段时间过后,进程莫名被杀死;

  • 解决方案:现在MongoDB使用WiredTiger作为默认存储引擎,MongoDB同时使用WiredTiger内部缓存和文件系统缓存。从3.4开始,WiredTiger内部缓存默认使用较大的一个:50%(RAM - 1 GB),或256 MB。例如,在总共4GB RAM的系统上,WiredTiger缓存将使用1.5GB的RAM()。相反,具有总共1.25 GB RAM的系统将为WiredTiger缓存分配256 MB,因为这超过总RAM的一半减去1千兆字节()。

#如果一台机器存在多个实例,在内存不足的情景在,操作系统会杀死部分进程;
0.5 * (4 GB - 1GB) = 1.5 GB``0.5 * (1.25 GB - 1 GB) = 128 MB < 256 MB。

# 要调整WiredTiger内部缓存的大小,调节cache规模不需要重启服务,我们可以动态调整:
db.adminCommand( { "setParameter": 1, "wiredTigerEngineRuntimeConfig": "cache_size=xxG"})

3、MongoDB删除数据,不释放磁盘空间

  • 问题说明:在删除大量数据(本人操作的数据量在2000万+)的情景下,并且在生产环境中请求量较大,此时机器的cpu负载会显得很高,甚至机器卡顿无法操作,这样的操作应该谨慎分批量操作;在删除命令执行结束之后,发现磁盘的数据量大小并没有改变。

  • 解决方案:

    • 方案一:我们可以使用MongoDB提供的在线数据收缩的功能,通过Compact命令db.collectionName.runCommand("compact")进行Collection级别的数据收缩,去除集合所在文件碎片。此命令是以Online的方式提供收缩,收缩的同时会影响到线上的服务。为了解决这个问题,可以先在从节点执行磁盘整理命令,操作结束后,再切换主节点,将原来的主节点变为从节点,重新执行Compact命令即可。

    • 方案二:使用从节点重新同步,secondary节点重同步,删除secondary节点中指定数据,使之与primary重新开始数据同步。当副本集成员数据太过陈旧,也可以使用重新同步。数据的重新同步与直接复制数据文件不同,MongoDB会只同步数据,因此重同步完成后的数据文件是没有空集合的,以此实现了磁盘空间的回收。

  • 针对一些特殊情况,不能下线secondary节点的,可以新增一个节点到副本集中,然后secondary就自动开始数据的同步了。总的来说,重同步的方法是比较好的,第一基本不会阻塞副本集的读写,第二消耗的时间相对前两种比较短。

    • 若是primary节点,先强制将之变为secondary节点,否则跳过此步骤:rs.stepdown(120);
    • 然后在primary上删除secondary节点:rs.remove("IP:port");
    • 删除secondary节点dbpath下的所有文件
    • 将节点重新加入集群,然后使之自动进行数据的同步:rs.add("IP:port");
    • 等数据同步完成后,循环1-4的步骤可以将集群中所有节点的磁盘空间释放

4、MongoDB机器负载极高

  • 问题说明:此情景是在客户请求较大的情景性,由于部署MongoDB的机器包含一主一从,MongoDB使得IO100%,数据库阻塞,出现大量慢查询,进而导致机器负载极高,应用服务完全不可用。

  • 解决方案:在没有机器及时扩容的状况下,首要任务便是减小机器的IO,在一台机器出现一主一从,在大量数据写入的情况下,会互相抢占IO资源。于是此时摒弃了MongoDB高可用的特点,摘掉了复制集当中的从节点,保证每台机器只有一个节点可以占用磁盘资源。之后,机器负载立马下来,服务变为正常可用状态,但是此时MongoDB无法保证数据的完整性,一旦有主节点挂掉便会丢失数据。

此方案只是临时方法,根本解决是可以增加机器的内存、使用固态硬盘,或者采用增加分片集来减少单个机器的读写压力。

# 进入主节点,执行移除成员的命令
rs.remove("127.0.0.1:20001");
# 注意:切勿直接关停实例

5、MongoDB分片键选择不当导致热读热写

  • 问题说明:生产环境中,某一集合的片键使用了与_id生成方式相似,含有时间序列的字段作为升序片键,导致数据写入时都在一个数据块,随着数据量增大,会造成数据迁移到前面的分区,造成系统资源的占用,偶尔出现慢查询。

  • 解决方案:临时方案设置数据迁移的窗口,放在在正常的时间区段,对业务造成影响。根本解决是更换片键。

# 连接mongos实例,执行以下命令
db.settings.update({ _id : "balancer" }, { $set : { activeWindow : { start : "23:00", stop : "4:00" } } }, true );
# 查看均衡窗口
sh.getBalancerWindow();

六、MongoDB优化建议

1、应用层面优化

查询优化:确认你的查询是否充分利用到了索引,用explain命令查看一下查询执行的情况,添加必要的索引,避免扫表操作。

  • 合理设计分片键:

    • 增量sharding-key:适合于可划分范围的字段,比如integer、float、date类型的,查询时比较快。
    • 随机sharding-key: 适用于写操作频繁的场景,而这种情况下如果在一个shard上进行会使得这个shard负载比其他高,不够均衡,故而希望能hash查询key,将写分布在多个shard上进行,考虑复合key作为sharding key,总的原则是查询快,尽量减少跨shard查询,balance均衡次数少;
    • 单一递增的sharding key,可能会造成写数据全部在最后一片上,最后一片的写压力增大,数据量增大,会造成数据迁移到前面的分区。MongoDB默认是单条记录16M,尤其在使用GFS的时候,一定要注意shrading-key的设计。不合理的sharding-key会出现,多个文档,在一个chunks上,同时,因为GFS中存贮的往往是大文件,导致MongoDB在做balance的时候无法通过sharding-key来把这多个文档分开到不同的shard上, 这时候MongoDB会不断报错最后导致MongoDB倒掉。解决办法:加大chunks大小(治标),设计合理的sharding-key(治本)。

通过profile来监控数据:进行优化查看当前是否开启profile功能,用命令db.getProfilingLevel() 返回level等级,值为0|1|2,分别代表意思:0代表关闭,1代表记录慢命令,2代表全部。开启profile功能命令为 db.setProfilingLevel(level); #level等级,值level为1的时候,慢命令默认值为100ms,更改为db.setProfilingLevel(level,slowms)如db.setProfilingLevel(1,50)这样就更改为50毫秒通过db.system.profile.find() 查看当前的监控日志。

2、硬件层面优化

  • 2.1 确定热数据大小
    可能你的数据集非常大,但是这并不那么重要,重要的是你的热数据集有多大,你经常访问的数据有多大(包括经常访问的数据和所有索引数据)。使用MongoDB,你最好保证你的热数据在你机器的内存大小之下,保证内存能容纳所有热数据;
  • 2.2 选择正确的文件系统
    MongoDB的数据文件是采用的预分配模式,并且在Replication里面,Master和Replica Sets的非Arbiter节点都是会预先创建足够的空文件用以存储操作日志。这些文件分配操作在一些文件系统上可能会非常慢,导致进程被Block。所以我们应该选择那些空间分配快速的文件系统。这里的结论是尽量不要用ext3,用ext4或xfs;

3、架构上的优化

尽可能让主从节点分摊在不同的机器上,避免IO操作的与MongoDB在同一台机器;

七、总结

MongoDB具有高性能、易扩展、易上手等特点,在正确使用的情况下,其本身性能还是非常强悍,在一些关键点如片键的选择、内存的大小和磁盘IO,往往是限制其性能的最大瓶颈。针对于片键,在业务系统初期,可以先不对集合进行数据分片,因为分片键一旦确定就无法修改,后期可根据业务系统的情况,认真筛选字段。

一般情况下,不建议使用升序片键(是一种随着时间稳定增长的字段,自增长的主键是升序键 ),因为这个会导致局部的热读热写,不能发挥分片集群的真正实力。建议使用hash片键或者随机分发的片键,这样可以保证数据的均匀分发在分片节点;针对于内存,建议内存的大小能够包含热数据的大小加索引大小,保证内存能容纳所有热数据 。

针对于磁盘资源,MongoDB的高速读写是以磁盘的IO作为基础,为了保证其性能,建议将主从节点以及高IO的应用分离,以保证IO资源尽可能不存在抢占。

转载自:https://www.jianshu.com/p/f05f65d3a1dc

以上内容仅作为个人备忘。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 194,911评论 5 460
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 82,014评论 2 371
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 142,129评论 0 320
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 52,283评论 1 264
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 61,159评论 4 357
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 46,161评论 1 272
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 36,565评论 3 382
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 35,251评论 0 253
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 39,531评论 1 292
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 34,619评论 2 310
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 36,383评论 1 326
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,255评论 3 313
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 37,624评论 3 299
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 28,916评论 0 17
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,199评论 1 250
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 41,553评论 2 342
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 40,756评论 2 335

推荐阅读更多精彩内容