绍圣--kafka之存储(二)

日志管理

消息代理节点的数据目录(log.dirs)可以设置多个目录,代理节点负责的所有分区分布在多个目录中。一个数据目录下可以有多个分区,一个分区只对应一个日志目录(logDir),同一个分区只会在其中的一个数据目录中,不会同时存在多个数据目录中。

kafka服务启动时会创建一个日志管理类,日志管理类采用线程池方式加载所有的日志,为每个日志的加载都创建一个单独的线程,每个日志会加载所有的日志分段。加载日志的任务本身是阻塞的。加载完毕之后,会调用startup()方法,加载四个管理线程:定时将所有数据目录所有日志的检查点写到检查点文件中;定时刷新还没有写到磁盘上的日志;定时清理失效的日志分段,并维护日志的大小;定时压缩日志,相同键不同值的消息只保存最近一条;

检查点文件

消息代理节点用多个数据目录存储所有的分区日志,每个数据目录都有一个全局的检查点文件,检查点文件会存储这个数据目录下所有日志的检查点信息。检查点是日志已经刷新到磁盘的位置,在分布式存储系统中主要用于故障的恢复(这个检查点文件就是恢复点检查点文件)。

kafka启动创建日志管理类,读取检查点文件,并把每个分区对应的检查点作为日志的恢复点,最后创建分区对应的日志实例。

消息追加到分区对应的日志后,最后在刷新日志时,将最新的偏移量作为日志的检查点。

日志管理启动一个定时任务:读取所有日志的检查点,并写入全局的检查点文件。

刷新日志

日志在没有刷写之前,数据保存在操作系统的页面缓存中,日志管理器启动时会定时调度方法,定期将页面缓存中的数据真正的写到磁盘的文件中。这样操作比直接就把数据写到文件中要快很多,但是也会存在风险,在数据未写入磁盘文件之前,节点宕掉了就会导致数据丢失(有副本机制,风险降低很多)。

刷盘的策略有两种:时间和大小。

时间:日志管理器启动一个定时器,每隔log.flush.interval.ms的时间执行一次刷写动作。

大小:仅有当有新消息产生时才有可能有机会调用刷写日志:追加信息到日志时,如果新创建了日志分段,立即刷新旧的日志分段;日志中未刷新的消息数量超过log.flush.interval.messages配置的值,立即执行一次刷写动作。

刷新日志方法的参数是日志的最新偏移量(logEndOffset),它要和日志中现有的检查点位置进行比较,只有最新偏移量比检查点位置大,才需要刷新。由于一个日志有多个日志分段,所以刷新日志时,会刷新从检查点位置到最新偏移量的所有日志分段,最后更新检查点位置。

清理日志

为了控制日志中所有的日志分段的总大小不超过阀值(log.retention.bytes),日志管理器定期清理旧的日志分段,从最旧的日志分段开始清理。有两种策略:删除和压缩。

删除:根据时间或者大小直接物理删除整个日志分段。

压缩:不直接删除日志分段,针对每个键采用合并压缩的方式。

策略可以设置为全局的,也可以针对主题进行单独设置,如果消息没有键,那只能按照删除策略设置

删除日志的思路是:将当前最新的日志大小减去下一个即将删除的日志分段大小,如果结果超过阔值,则允许删除下一个日志分段;如果小于阔值,则不会删除下一个日志分段 。

删除日志分段是一个异步操作,在执行异步删除之前,要先将日志分段从映射表中删除,再将日志分段中的数据文件和索引文件添加上.deleted后缀,最后才调度异步删除日志分段的任务。

日志实例中涉及日志分段的修改,比如追加消息(append() )、删除(delete())、滚动创建( roll())、刷新(flush() )、截断(truncateTo())、替换(replaceSegments())、关闭(close() )、 加 载( loadSegments ())等操作,都会用一个对象锁保证同步。

日志压缩

kafka是用追加的形式把消息集写到文件中的,如果消息集带有键,是不会去查询键是否存在的,因为太耗性能,这样写操作性能就很高,后期后台线程定期对相同的键进行合并,保留偏移量大的消息。压缩的工作就是:删除旧的,只保留最近的一次。

日志压缩的原则是不影响写操作,所以除了当前活动的日志分段外,其余剩下的日志分段全部参与压缩合并。因为每个文件目录是一个分区,不同分区有不同的文件目录,每个分区下的文件目录下的日志分段不会太多,所以一次性合并所有的旧的日志分段问题不大。

清理点

日志压缩会将旧日志分段的消息,复制到新日志分段上。为了减少复制过程中的内存开销,在开始压缩之前,将日志按照清理点分成日志尾部和日志头部。每完成一次压缩后,清理点就更新为压缩之前的那个日志分段的基准偏移量。

日志头部的范围:从没有清理的偏移量开始到活动日志分段的基准偏移量。

日志尾部的范围:从开始清理的偏移量到清理点。

例如:

第一次日志压缩,清理点为0。这时的头部就是0到活动日志的基准偏移量13,没有尾部。

第一次日志压缩之后,清理点更新为压缩之前的活动日志的基准偏移量13。

第二次日志压缩,清理点为13。这时的头部是13到现在活动的日志分段基准偏移量20,尾部是0到13。

第二次日志压缩之后,清理更新为第二次压缩之前的活动的日志分段基准偏移量20。注意这里第二次压缩之后,日志尾部中消息如果有键重复的,就已经合并了。

第三次日志压缩,清理点为20,这时的头部是20到现在活动的日志分段基准偏移量36,尾部是2到20。

以此类推。说明:第三次的时候日志尾部为什么是从偏移量2开始的?因为有可能在第二次压缩的时候,偏移量0的消息的键和后面偏移量为2的消息的键重复了,就合并了,保留了最近的更新。删除了偏移量为0的消息。由此可以看出,日志尾部的偏移量是稀疏的,但总体上是递增的。被保留的消息即使复制到了新的日志分段,也不会改变消息的偏移量,不会对消息进行重新排序;日志压缩后消息的物理位置会发生变化,因为复制到了新的日志分段是使用新的数据文件。

可以看出日志尾部是清理过的,日志头部是从未清理过的。

在日志压缩合并的同时,客户端也会读取日志,如果客户端读取的进度每次都赶在压缩之后还在读日志尾部的消息,那么客户端就不会读取完整的消息;如果客户端读取的进度每次读取的是日志头部的消息,那么客户端就会读取完整的消息。(这里说的完整的消息是指:新旧的消息一起都会读取到,不是指消息本身的完整)

删除点

如果一个消息带有键,但是内容为null,表示这条删除消息所在偏移量之前的所有消息都需要删除。这个删除消息叫做删除点。因为每条消息都会有多个副本,所以删除点除了追加到主副本上日志分段上,也需要复制并保持到其他节点的备份副本上。

日志压缩会将上一次压缩后的多个小文件合并为一组,压缩成新的文件。日志压缩后,新的日志分段不会更改每条消息的偏移量,也不会更改文件的最近修改时间。

在第二次压缩之后,就需要考虑删除点是否需要保留,因为压缩之后的消息是被重组的。那么原来在连续偏移量下增加的删除点是否还需要保留。保留的话必须满足以下条件:日志分段的最近修改时间大于deleteHorizoMs。deleteHorizoMs的计算方式是:日志头部起始位置前的最后一个日志分段的最近修改时间减去保留阀值(delete.retention.ms)。只要大于就删除日志分段中的删除点。

日志清理的管理器与清理线程

日志管理器(LogManager)除了管理日志的常用操作,也管理一个日志清理器(LogCleaner),日志清理器通过管理器(LogCleanerManager)选择出需要清理的日志(LogToClean),并将具体的清理动作交给清理线程(CleanerThread)完成。

来之《 Kafka技术内幕:图文详解Kafka源码设计与实现 》:日志清理器的线程模型

日志管理需要把数据目录(logDirs)和所有的日志(logs)作为参数,传递给日志清理管理器(LogCleanerManager)。每个数据目录都有一个清理点检查点文件,来记录每个日志的最近一次清理点位置。日志清理管理器在选择日志时,会读取每个日志的清理点,然后选择最需要清理的日志进行清理,清理完成后将这个日志的最新清理点写入清理点检查点文件中。

清理线程(CleanerThread)每次运行,都会让日志清理管理器(LogCleanerManager)选择一个最需要清理的日志;清理线程对应的清理者(Cleaner)每次也只会清理一个日志。每个分区的日志都对应一个LogToClean对应。

什么情况下才是最需要清理的日志喃:日志头部大小除以日志的大小(日志头部加上日志尾部),然后选择比率最大的那个分区对应的日志。

日志压缩的具体步骤:

1,消息追加到活动的日志分段,选择活动日志分段之前的所有日志分段参与日志压缩。

2,为日志头部构建一张消息键到偏移量的映射表,相同键但偏移量低于映射表的消息会被删除。

3,通过复制消息的方式,将需要保持的消息复制到新的日志分段,每条键都只有一条最新的消息。

4,复制完成后,新的日志分段会代替所有参与压缩操作的旧日志分段。

5,更新日志的清理点,为下一个日志压缩做准备,清理点将日志分为日志头部和日志尾部。

每一次的日志压缩都是用日志头部里面的消息键和日志尾部中的消息键进行比较,如果日志尾部中的消息键在日志头部中存在,那么日志尾部中的消息就需要被删除掉。

日志清理

日志压缩过程中就是日志的清理动作。日志清理动作:为日志头部构建映射表,对所有日志分段(除活动日志分段外)进行分组,分别清理每一组的日志分段。映射表结构是日志头部中的消息键到偏移量的映射关系。

压缩后会将一个大文件变成一个小文件,为了防止出现太多的小文件,日志压缩并不是对每个小文件单独压缩,而是将多个相连的小文件组成一组一起压缩。同一组的所有小文件加起来不能超过日志分段的阀值。

分组时,日志尾部的日志分段都是上次压缩后的小文件,要参与分组。日志头部后的日志分段,都是没有未参与压缩的,大小都是日志分段的阀值,每个日志分段都是单独的一组。在加入分组时,顺序不能打乱,因为后面将消息复制到新的日志分段时,是按顺序复制的。分组方法有两层循环:外层循环确保分配完所有的日志分段,内层循环来确定同一组的所有日志分段。

每一个分组有一个或者多个日志分段,每一组都会清理这一组内的多个日志分段。同一组的多个日志分段清理后,只会生成一个新的日志分段,新日志分段的文件名和第一个日志分段的文件名称一样。

清理每个分段时,只有需要保留的消息才会复制到新日志分段中,以下消息会删除掉:

1,消息在映射表中,但是消息的偏移量比映射表中的偏移量低,删除这条消息。

2,消息是删除点,并且已经过期,删除这条消息。

参考资料:

Kafka技术内幕:图文详解Kafka源码设计与实现

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,937评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,503评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,712评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,668评论 1 276
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,677评论 5 366
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,601评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,975评论 3 396
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,637评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,881评论 1 298
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,621评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,710评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,387评论 4 319
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,971评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,947评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,189评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 44,805评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,449评论 2 342

推荐阅读更多精彩内容