从携程性能测试case中重新认识clickhouse

背景

其实早在去年我们就已经开始接触并研究clickhouse了,因为当时进行多表关联测试性能并不是特别优秀,所以并没有在线上大范围使用,当时研究的是分布式部署 (感觉分布式会比单机好一些)最后发现性能并不怎么样 而且分布式的sql也有很多限制,不支持单条删除和更新操作、不支持in和join(当时的版本,18.12.14之前),直到前几天看了携程一篇关于clickhouse的文章,将clickhouse的性能描述的神乎其神,再次勾起了我研究的欲望,附携程公众号文章 每天十亿级数据更新,秒出查询结果,ClickHouse在携程酒店的应用

测试

开始之前我们先看结果:

  • 携程的case:

clickhouse 版本:18.12.13
服务器配置:

参数 配置
CPU 40c
内存 128g
硬盘 SSD
虚拟内存 禁用

数据:

数据量
A 1000w
B 2000w
C 6000w
D 2.4亿

测试场景:

case 时间
A + B +C 三表关联聚合查询 190ms
B + D 关联聚合查询 390ms
A + B +D 三表关联聚合查询 640ms

根据携程给的一份查询统计数据来看他们基于clickhouse的分析需求90%在500ms内:


查询分析
  • 易企秀测试case:

clickhouse 版本:18.12.13
服务器配置:

参数 配置
CPU 32c
内存 128g
硬盘 SSD
虚拟内存 禁用

数据:

数据量
A 4000w
B 1.3亿

测试场景:

case 时间
B 单表聚合排序 2s
B + D 关联聚合排序 11s
单表聚合
多表关联聚合

通过对比测试,在配置相当的情况下测试结果差距还是很大的,那么究竟是什么原因造成的呢?该如何进行优化...

过程再现

  • 调参:
    网上有人说通过调大 max_memory_usage 与 max_bytes_before_external_group_by 的值可改善查询性能(主要是处理并发query或单次查询内存约束的)
SET max_memory_usage = 128000000000; #128G,
SET max_memory_usage = 60000000000; #60G,

实际测试这种操作,性能并没有任何影响,但在16C 、68G、普通硬盘环境下的clickhouse调大这两个参数的值性能会有一倍提升。

  • 优化建表语句


    建表语句

通过缩小分区数量性能略有提升,但不明显

  • 优化SQL
    JOIN操作时一定要把数据量小的表放在右边,ClickHouse中无论是Left Join 、Right Join还是Inner Join永远都是拿着右表中的每一条记录到左表中查找该记录是否存在,所以右表必须是小表。

  • 优化engine
    将普通的mergetree engin 改为特殊的memory engine,性能无任何变化。

  • io 排查
    通过测试过程中对硬盘io的监控数据看,clickhouse在计算的过程中基本没有什么io操作,只是在最后一个阶段有1-2s的写io操作,这也侧面印证mergetree的强大。


    memory engine

那么问题来了 ,这些都没有明显改善,那携程的case是怎么快起来的呢?

初步怀疑携程case中的操作并没有使用到全表数据,应该在聚合前加了很多筛选条件,带着疑问邮件了上文的作者,结论如下:


邮件
携程多表关联聚合的真实case
  • 我们调整后的case:


    秒查

结论

1、使用SSD盘比普通盘性能会提升1倍
2、亿级别单表聚合排序最慢2s出结果,普通盘需4秒
3、多表关联需增加过滤条件,将聚合结果控制在千万级别内可秒出
4、join时大表在左小表在右
5、如果不想加where条件,那么可以提前构建大宽表或者预计算
6、按照我们业务量级上面服务器配置减半并不影响性能

其实clickhouse并不需要做什么优化,100个并发内单表分析可随意操作,体验极佳;多表分析需根据实际使用场景针对性优化

普通盘

认为是对的 坚持下去 就是对的,认为是对的 不去坚持 最后可能就是错的

目前我们实时数仓除了使用clickhouse 外 还在使用另外一个秒查引擎,亿级规模场景下分析 这个engine是真的秒查哦 SnappyData

SnappyData
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,293评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,604评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,958评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,729评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,719评论 5 366
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,630评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,000评论 3 397
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,665评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,909评论 1 299
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,646评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,726评论 1 330
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,400评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,986评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,959评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,197评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 44,996评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,481评论 2 342