mongodb的oplog日志

##########################################################################

oplog不及binlog:

首先,来一个综述,比较mongodb的oplog和mysql的binlog,oplog不如binlog,比如设置一个延迟节点的时间,由于oplog是一个固定大小的集合,延迟时间设置大了,就会无法同步数据,而mysql的binlog可以设置binlog过期时间,根本不用担心。


任何一种数据库都有各种各样的日志,MongoDB也不例外。MongoDB中有4种日志,分别是系统日志、Journal日志、oplog主从日志、慢查询日志等。这些日志记录着MongoDB数据库不同方面的踪迹。下面分别介绍这几种日志。

系统日志

系统日志在MongoDB数据库中很重要,它记录着MongoDB启动和停止的操作,以及服务器在运行过程中发生的任何异常信息。

配置系统日志的方法比较简单,在启动mongod时指定logpath参数即可

mongod -logpath=/data/log/mongodb/serverlog.log -logappend
复制代码

系统日志会向logpath指定的文件持续追加。

Journal日志

journaling(日记) 日志功能则是 MongoDB 里面非常重要的一个功能 , 它保证了数据库服务器在意外断电 、 自然灾害等情况下数据的完整性。它通过预写式的redo日志为MongoDB增加了额外的可靠性保障。开启该功能时,MongoDB会在进行写入时建立一条Journal日志,其中包含了此次写入操作具体更改的磁盘地址和字节。因此一旦服务器突然停机,可在启动时对日记进行重放,从而重新执行那些停机前没能够刷新到磁盘的写入操作。

MongoDB配置WiredTiger引擎使用内存缓冲区来保存journal记录,WiredTiger根据以下间隔或条件将缓冲的日志记录同步到磁盘

  1. 从MongoDB 3.2版本开始每隔50ms将缓冲的journal数据同步到磁盘
  2. 如果写入操作设置了j:true,则WiredTiger强制同步日志文件
  3. 由于MongoDB使用的journal文件大小限制为100MB,因此WiredTiger大约每100MB数据创建一个新的日志文件。当WiredTiger创建新的journal文件时,WiredTiger会同步以前journal文件

MongoDB达到上面的提交,便会将更新操作写入日志。这意味着MongoDB会批量地提交更改,即每次写入不会立即刷新到磁盘。不过在默认设置下,系统发生崩溃时,不可能丢失超过50ms的写入数据。

数据文件默认每60秒刷新到磁盘一次,因此Journal文件只需记录约60s的写入数据。日志系统为此预先分配了若干个空文件,这些文件存放在/data/db/journal目录中,目录名为_j.0、_j.1等 长时间运行MongoDB后,日志目录中会出现类似_j.6217、_j.6218的文件,这些是当前的日志文件,文件中的数值会随着MongoDB运行时间的增长而增大。数据库正常关闭后,日记文件会被清除(因为正常关闭后就不在需要这些文件了).

向mongodb中写入数据是先写入内存,然后每隔60s在刷盘,同样写入journal,也是先写入对应的buffer,然后每隔50ms在刷盘到磁盘的journal文件 使用WiredTiger,即使没有journal功能,MongoDB也可以从最后一个检查点(checkpoint,可以想成镜像)恢复;但是,要恢复在上一个检查点之后所做的更改,还是需要使用Journal

如发生系统崩溃或使用kill -9命令强制终止数据库的运行,mongod会在启动时重放journal文件,同时会显示出大量的校验信息。

上面说的都是针对WiredTiger引擎,对于MMAPv1引擎来说有一点不一样,首先它是每100ms进行刷盘,其次它是通过private view写入journal文件,通过shared view写入数据文件。这里就不过多讲解了,因为MongoDB 4.0已经不推荐使用这个存储引擎了。 从MongoDB 3.2版本开始WiredTiger是MongoDB推荐的默认存储引擎

需要注意的是如果客户端的写入速度超过了日记的刷新速度,mongod则会限制写入操作,直到日记完成磁盘的写入。这是mongod会限制写入的唯一情况。

固定集合(Capped Collection)

在讲下面两种日志之前先来认识下capped collection。

MongoDB中的普通集合是动态创建的,而且可以自动增长以容纳更多的数据。MongoDB中还有另一种不同类型的集合,叫做固定集合。固定集合需要事先创建好,而且它的大小是固定的。固定集合的行为类型与循环队列一样。如果没有空间了,最老的文档会被删除以释放空间,新插入的文档会占据这块空间。

创建固定集合:

db.createCollection("collectionName",{"capped":true, "size":100000, "max":100})
复制代码

创建了一个大小为100000字节的固定大小集合,文档数量为100.不管先到达哪个限制,之后插入的新文档就会把最老的文档挤出集合:固定集合的文档数量不能超过文档数量限制,也不能超过大小限制。

固定集合创建之后就不能改变,无法将固定集合转换为非固定集合,但是可以将常规集合转换为固定集合。

db.runCommand({"convertToCapped": "test", "size" : 10000});
复制代码

固定集合可以进行一种特殊的排序,称为自然排序(natural sort),自然排序返回结果集中文档的顺序就是文档在磁盘的顺序。自然顺序就是文档的插入顺序,因此自然排序得到的文档是从旧到新排列的。当然也可以按照从新到旧:

db.my_capped_collection.find().sort({"$natural": -1});
复制代码

oplog主从日志

Replica Sets复制集用于在多台服务器之间备份数据。MongoDB的复制功能是使用操作日志oplog实现的,操作日志包含了主节点的每一次写操作。oplog是主节点的local数据库中的一个固定集合。备份节点通过查询这个集合就可以知道需要进行复制的操作。

一个mongod实例中的所有数据库都使用同一个oplog,也就是所有数据库的操作日志(插入,删除,修改)都会记录到oplog中

每个备份节点都维护着自己的oplog,记录着每一次从主节点复制数据的操作。这样,每个成员都可以作为同步源给其他成员使用。 如图所示,备份节点从当前使用的同步源中获取需要执行的操作,然后在自己的数据集上执行这些操作,最后再将这些操作写入自己的oplog,如果遇到某个操作失败的情况(只有当同步源的数据损坏或者数据与主节点不一致时才可能发生),那么备份节点就会停止从当前的同步源复制数据。

 

oplog-copy.png

 

oplog中按顺序保存着所有执行过的写操作,replica sets中每个成员都维护者一份自己的oplog,每个成员的oplog都应该跟主节点的oplog完全一致(可能会有一些延迟)

如果某个备份节点由于某些原因挂了,但它重新启动后,就会自动从oplog中最后一个操作开始进行同步。由于复制操作的过程是想复制数据在写入oplog,所以备份节点可能会在已经同步过的数据上再次执行复制操作。MongoDB在设计之初就考虑到了这种情况:将oplog中的同一个操作执行多次,与只执行一次的效果是一样的。

由于oplog大小是固定的,它只能保持特定数量的操作日志。通常,oplog使用空间的增长速度与系统处理写请求的速率几乎相同:如果主节点上每分钟处理了1KB的写入请求,那么oplog很可能也会在一分钟内写入1KB条操作日志。

但是,有一些例外:如果单次请求能够影响到多个文档(比如删除多个文档或者多文档更新),oplog中就会出现多条操作日志。如果单个操作会影响多个文档,那么每个受影响的文档都会对应oplog的一条日志。因此,如果执行db.student.remove()删除了10w个文档,那么oplog中也就会有10w条操作日志,每个日志对应一个被删除的文档。如果执行大量的批量操作,oplog很快就会被填满。

慢查询日志

MongoDB中使用系统分析器(system profiler)来查找耗时过长的操作。系统分析器记录固定集合system.profile中的操作,并提供大量有关耗时过长的操作信息,但相应的mongod的整体性能也会有所下降。因此我们一般定期打开分析器来获取信息。

默认情况下,系统分析器处于关闭状态,不会进行任何记录。可以在shell中运行db.setProfilingLevel()开启分析器

db.setProfilingLevel(level,<slowms>) 0=off 1=slow 2=all
复制代码

第一个参数是指定级别,不同的级别代表不同的意义,0表示关闭,1表示默认记录耗时大于100毫秒的操作,2表示记录所有操作。第二个参数则是自定义“耗时过长"标准,比如记录所有耗时操作500ms的操作

db.setProfilingLevel(1,500);
复制代码

如果开启了分析器而system.profile集合并不存在,MongoDB会为其建立一个大小为若干MB的固定集合(capped collection)。如希望分析器运行更长时间,可能需要更大的空间记录更多的操作。此时可以关闭分析器,删除并重新建立一个新的名为system.profile的固定集合,并令其容量符合要求。然后在数据库上重新启用分析器。

可以通过db.system.profile.stats()查看集合的最大容量.


作者:think123
链接:https://juejin.im/post/6844903907169140750
来源:掘金
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

 

 

动态更改oplog大小:

 

db.adminCommand({replSetResizeOplog:1, size: 16384})

 

 

 

 获取最旧的一个操作:

 

glc-test:PRIMARY> use local
switched to db local
glc-test:PRIMARY> db.oplog.rs.find().sort({$natural: -1}).pretty().limit(1)
{
        "ts" : Timestamp(1605170004, 1),
        "t" : NumberLong(115),
        "h" : NumberLong("-8786076471049145979"),
        "v" : 2,
        "op" : "n",
        "ns" : "",
        "wall" : ISODate("2020-11-12T08:33:24.005Z"),
        "o" : {
                "msg" : "periodic noop"
        }
}
glc-test:PRIMARY> 

 

 

 获取最新的一个操作:

 

glc-test:PRIMARY> use local
switched to db local
glc-test:PRIMARY> db.oplog.rs.find().sort({$natural: 1}).pretty().limit(1)
{
        "ts" : Timestamp(1604648269, 8897),
        "t" : NumberLong(113),
        "h" : NumberLong("-8471504986882691135"),
        "v" : 2,
        "op" : "i",
        "ns" : "eagle.content_v1",
        "ui" : UUID("02ddbc0a-e76b-450e-ae38-bd5eb220c773"),
        "wall" : ISODate("2020-11-06T07:37:49.312Z"),
        "o" : {
                "_id" : "1478dong",
                "uid" : "",
                "lv3" : "",
                "lv4" : "",
                "lv5" : "",
                "comment_id" : "1478",
                "creation_time" : "2020-10-22 17:11:14",
                "content" : "内容",
                "skuid" : "77",
                "xxname" : "蓝牙",
                "score" : "5",
                "name" : "xxx",
                "rate" : "0.99",
                "general_rate" : "0.003",
                "poor_rate" : "0.007",
                "poorcount" : "242",
                "general_count" : "132",
                "good" : "5759",
                "comment" : "10165",
                "fetchtime" : "2020-10-23 01:17:57",
                "first" : "数码",
                "second" : "影",
                "third" : "音",
                "source" : "jingdong",
                "sub_comment" : [
                        "内容"
                ],
                "sub_comment_sa" : [
                        0,
                        0
                ],
                "sub_comment_entity" : [
                        [
                                "功能"
                        ]
                ],
                "sub_tags3" : [ ],
                "sub_tags4" : [
                        [ ]
                ],
                "su" : "箱",
                "tem_id" : "1004",
                "sa_origin" : "",
                "sa" : "0",
                "category" : "狗狗",
                "pms_id" : "",
                "source_comment_id" : "",
                "update_time" : NumberLong("1603405763132")
        }
}
glc-test:PRIMARY> 

 

 oplog的时间滑动窗口范围就是两者之间的时间ts差值:

 

glc-test:PRIMARY> db.oplog.rs.find({},{ts:1}).sort({$natural: 1}).pretty().limit(1)
{ "ts" : Timestamp(1604648269, 8897) }
glc-test:PRIMARY> db.oplog.rs.find({},{ts:1}).sort({$natural: -1}).pretty().limit(1)
{ "ts" : Timestamp(1605171394, 1) }
glc-test:PRIMARY> 

 

 

 oplog的动态扩容与缩容:(mongodb版本至少3.6以上)

 

mivpn:PRIMARY> db.getReplicationInfo()
{
        "logSizeMB" : 65536,
        "usedMB" : 3061.23,
        "timeDiff" : 769648,
        "timeDiffHours" : 213.79,
        "tFirst" : "Wed Jan 20 2021 12:22:17 GMT+0800 (CST)",
        "tLast" : "Fri Jan 29 2021 10:09:45 GMT+0800 (CST)",
        "now" : "Fri Jan 29 2021 10:09:46 GMT+0800 (CST)"
}
mivpn:PRIMARY> db.adminCommand({replSetResizeOplog:1,size:102400})
{
        "ok" : 1,
        "operationTime" : Timestamp(1611886191, 79),
        "$clusterTime" : {
                "clusterTime" : Timestamp(1611886191, 79),
                "signature" : {
                        "hash" : BinData(0,"OUP6mdMfsdZU/YM98XDnlhdXlzg="),
                        "keyId" : NumberLong("6919692836459773955")
                }
        }
}
mivpn:PRIMARY> db.getReplicationInfo()
{
        "logSizeMB" : 102400,
        "usedMB" : 3061.24,
        "timeDiff" : 769654,
        "timeDiffHours" : 213.79,
        "tFirst" : "Wed Jan 20 2021 12:22:17 GMT+0800 (CST)",
        "tLast" : "Fri Jan 29 2021 10:09:51 GMT+0800 (CST)",
        "now" : "Fri Jan 29 2021 10:09:58 GMT+0800 (CST)"
}
mivpn:PRIMARY> 

 

 回收空间:

use local;
db.runCommand({ "compact" : "oplog.rs" });

 

 

 oplog文件大小:local.oplog.rs对应的物理文件是压缩文件:1/3

 

glc:PRIMARY> db.getReplicationInfo()
{
        "logSizeMB" : 900000,
        "usedMB" : 892698.48,
        "timeDiff" : 213954,
        "timeDiffHours" : 59.43,
        "tFirst" : "Wed Jan 27 2021 05:09:20 GMT+0800 (CST)",
        "tLast" : "Fri Jan 29 2021 16:35:14 GMT+0800 (CST)",
        "now" : "Fri Jan 29 2021 16:35:14 GMT+0800 (CST)"
}

 

 

[work@xxx collection]$ ll -h
total 304G
-rw------- 1 work work  32K Nov 30 15:02 0-979332807111034247.wt
-rw------- 1 work work 304G Jan 29 16:38 14-979332807111034247.wt
-rw------- 1 work work  32K Dec 15 12:24 17-979332807111034247.wt
-rw------- 1 work work  36K Nov 30 15:02 19-979332807111034247.wt
-rw------- 1 work work  16K Dec 15 12:24 2-979332807111034247.wt
-rw------- 1 work work 320K Jan 29 15:30 40-979332807111034247.wt
-rw------- 1 work work  36K Jun 30  2020 4-979332807111034247.wt
-rw------- 1 work work  16K Dec 15 12:24 6-979332807111034247.wt
-rw------- 1 work work  16K Dec  3 16:31 8-979332807111034247.wt

 

 

 

 

####################################################

posted @ 2020-11-10 17:17  igoodful  阅读(1715)  评论(0编辑  收藏  举报