使用Apache Kudu和Impala实现存储分层(转)

https://my.oschina.net/dabird/blog/3051625

当为应用程序的数据选择一个存储系统时,我们通常会选择一个最适合我们业务场景的存储系统。对于快速更新和实时分析工作较多的场景,我们可能希望使用Apache Kudu,但是对于低成本的大规模可伸缩性场景,我们可能希望使用HDFS。因此,需要一种解决方案使我们能够利用多个存储系统的最佳特性。本文介绍了如何使用Apache Impala的滑动窗口模式,操作存储在Apache KuduApache HDFS中的数据,使用此模式,我们可以以对用户透明的方式获得多个存储层的所有优点。

Apache Kudu旨在快速分析、快速变化的数据。Kudu提供快速插入/更新和高效列扫描的组合,以在单个存储层上实现多个实时分析工作负载。因此,Kudu非常适合作为存储需要实时查询的数据的仓库。此外,Kudu支持实时更新和删除行,以支持延迟到达的数据和数据更正。

Apache HDFS旨在以低成本实现无限的可扩展性。它针对数据不可变的面向批处理的场景进行了优化,与Apache Parquet文件格式配合使用时,可以以极高的吞吐量和效率访问结构化数据。

对于数据小且不断变化的情况,如维度表,通常将所有数据保存在Kudu中。当数据符合Kudu扩展限制并且可以从Kudu的特性中受益时,在Kudu中保留大表是很常见的。如果数据量大,面向批处理且不太可能发生变化,则首选使用Parquet格式将数据存储在HDFS中。当我们需要利用两个存储层的优点时,滑动窗口模式是一个有用的解决方案。

滑动窗口模式

在此模式中,我们使用Impala创建匹配的Kudu表和Parquet格式的HDFS表。根据KuduHDFS表之间数据移动的频率,这些表按时间单位分区,通常使用每日、每月或每年分区。然后创建一个统一视图,并使用WHERE子句定义边界,该边界分隔从Kudu表中读取的数据以及从HDFS表中读取的数据。定义的边界很重要,这样我们就可以在KuduHDFS之间移动数据,而不会将重复的记录暴露给视图。移动数据后,可以使用原子的ALTER VIEW语句向前移动边界。

image

注意:此模式最适用于组织到范围分区(range partitions)中的某些顺序数据,因为在此情况下,按时间滑动窗口和删除分区操作会非常有效。

该模式实现滑动时间窗口,其中可变数据存储在Kudu中,不可变数据以HDFS上的Parquet格式存储。通过Impala操作KuduHDFS来利用两种存储系统的优势:

  • 流数据可立即查询(Streaming data is immediately queryable)
  • 可以对更晚到达的数据或手动更正进行更新(Updates for late arriving data or manual corrections can be made)
  • 存储在HDFS中的数据具有最佳大小,可提高性能并防止出现小文件(Data stored in HDFS is optimally sized increasing performance and preventing small files)
  • 降低成本(Reduced cost)

Impala还支持S3ADLS等云存储方式。此功能允许方便地访问远程管理的存储系统,可从任何位置访问,并与各种基于云的服务集成。由于这些数据是远程的,因此针对S3数据的查询性能较差,使得S3适合于保存仅偶尔查询的“冷”数据。通过创建第三个匹配表并向统一视图添加另一个边界,可以扩展此模式以将冷数据保存在云存储系统中��。

image

注意:为简单起见,下面的示例中仅说明了KuduHDFS

将数据从Kudu移动到HDFS的过程分为两个阶段。第一阶段是数据移动,第二阶段是元数据更改,最后定义一些定期自动运行的数据任务来辅助我们维护滑动窗口。

在第一阶段,将当前不可变数据从Kudu复制到HDFS。即使数据从Kudu复制到HDFS,视图中定义的边界也会阻止向用户显示重复数据。此步骤可以包括根据需要进行的任何验证和重试,以确保数据卸载(data offload)成功。

image

在第二阶段,现在数据被安全地复制到HDFS,需要更改元数据以对分区进行调整。这包括向前移动边界,为下一个时段添加新的Kudu分区,以及删除旧的Kudu分区。

image

实现步骤

为了实现滑动窗口模式,需要一些Impala基础,下面介绍实现滑动窗口模式的基本步骤。

移动数据

只要我们使用每种存储格式定义匹配表,就可以通过Impala在存储系统之间移动数据。为简洁起见,未描述创建Impala表时可用的所有选项,可以参考ImpalaCREATE TABLE文档来查找创建KuduHDFS和云存储表的正确语法。下面列出了一些示例,其中包括滑动窗口模式。

创建表后,移动数据就像INSERT ... SELECT语句一样简单:

INSERT INTO table_foo SELECT * FROM table_bar;

SELECT语句的所有功能都可用于选择要移动的特定数据。

注意:如果将数据移动到Kudu,可以使用UPSERT INTO语句来处理重复键。

统一查询

Impala中查询来自多个表和数据源的数据也很简单。为简洁起见,未描述创建Impala视图时可用的所有选项,可以参考ImpalaCREATE VIEW文档

创建统一查询的视图就像使用两个SELECT子句和UNION ALLCREATE VIEW语句一样简单:

CREATE VIEW foo_view AS
SELECT col1, col2, col3 FROM foo_parquet
UNION ALL
SELECT col1, col2, col3 FROM foo_kudu;

警告:确保使用UNION ALL而不是UNIONUNION关键字本身与UNION DISTINCT相同,可能会对性能产生重大影响,可以在Impala UNION文档中找到更多信息。

SELECT语句的所有功能都可用于公开每个基础表中的正确数据和列,使用WHERE子句传递和下推任何需要特殊处理或转换的谓词非常重要。下面将在滑动窗口模式的讨论中进行更多示例。

此外,可以通过ALTER VIEW语句更改视图,当与SELECT语句结合使用时,这很有用,因为它可以用于原子地更新视图正在访问的数据。

示例

下面是使用滑动窗口模式来操作具有三个月活动可变的月度周期数据的实现示例,超过三个月的数据将使用Parquet格式卸载到HDFS

创建Kudu表

首先,创建一个Kudu表,该表将保存三个月的活动可变数据。该表由时间列分区,每个范围包含一个数据周期。拥有与时间周期匹配的分区很重要,因为删除Kudu分区比通过DELETE子句删除数据更有效。该表还由另一个键列进行散列分区,以确保所有数据都不会写入单个分区。

注意:模式设计(schema design)应根据我们的数据和读/写性能考虑因素而有所不同。此示例模式仅用于演示目的,而不是“最佳”模式。有关选择模式的更多指导,请参考Kudu模式设计文档(schema design documentation)。例如,如果数据输入速率较低,则可能不需要任何散列分区,如果数据输入速率非常高,则可能需要更多散列桶。

CREATE TABLE my_table_kudu
(  
  name STRING,
  time TIMESTAMP,
  message STRING,
  PRIMARY KEY(name, time)
)
PARTITION BY
   HASH(name) PARTITIONS 4,
   RANGE(time) (
      PARTITION '2018-01-01' <= VALUES < '2018-02-01', --January
      PARTITION '2018-02-01' <= VALUES < '2018-03-01', --February
      PARTITION '2018-03-01' <= VALUES < '2018-04-01', --March
      PARTITION '2018-04-01' <= VALUES < '2018-05-01'  --April
)
STORED AS KUDU;

注意:有一个额外的月分区(2018-04-01至2018-05-01)可以为数据提供一个时间缓冲区,以便将数据移动到不可变表中。

创建HDFS表

创建Parquet格式的HDFS表,该表将保存较旧的不可变数据。此表按年、月和日进行分区,以便进行有效访问,即使我们无法按时间列本身进行分区,这将在下面的视图步骤中进一步讨论。有关更多详细信息,请参考Impala的分区文档

CREATE TABLE my_table_parquet
(  
  name STRING,
  time TIMESTAMP,
  message STRING
)
PARTITIONED BY (year int, month int, day int)
STORED AS PARQUET;

创建统一视图

现在创建统一视图,用于无缝地查询所有数据:

CREATE VIEW my_table_view AS
SELECT name, time, message
FROM my_table_kudu
WHERE time >= "2018-01-01"
UNION ALL
SELECT name, time, message
FROM my_table_parquet
WHERE time < "2018-01-01"
AND year = year(time)
AND month = month(time)
AND day = day(time);

每个SELECT子句都明确列出要公开的所有列,这可确保不会公开Parquet表所特有的年、月和日列。如果需要,它还允许处理任何必要的列或类型映射。

应用于my_table_kudumy_table_parquet的初始WHERE子句定义了KuduHDFS之间的边界,以确保在卸载数据的过程中不会读取重复数据。

应用于my_table_parquet的附加AND子句用于确保单个年、月和日列的良好谓词下推(good predicate pushdown)

警告:如前所述,请务必使用UNION ALL而不是UNIONUNION关键字本身与UNION DISTINCT相同,可能会对性能产生重大影响,可以在Impala UNION文档中找到更多信息。

创建定时任务

现在已创建基表和视图,接着创建定时任务以维护滑动窗口,下面定时任务中使用的SQL文件可以接收从脚本和调度工具传递的变量。

创建window_data_move.sql文件以将数据从最旧的分区移动到HDFS

INSERT INTO ${var:hdfs_table} PARTITION (year, month, day)
SELECT *, year(time), month(time), day(time)
FROM ${var:kudu_table}
WHERE time >= add_months("${var:new_boundary_time}", -1)
AND time < "${var:new_boundary_time}";
COMPUTE INCREMENTAL STATS ${var:hdfs_table};

注意:COMPUTE INCREMENTAL STATS子句不是必需的,但可帮助我们对Impala查询进行优化。

要运行SQL语句,请使用Impala shell并传递所需的变量,示例如下:

impala-shell -i <impalad:port> -f window_data_move.sql
--var=kudu_table=my_table_kudu
--var=hdfs_table=my_table_parquet
--var=new_boundary_time="2018-02-01"

注意:可以调整WHERE子句以匹配给定的数据周期和卸载的粒度,这里,add_months函数的参数为-1,用于从新的边界时间移动过去一个月的数据。

创建window_view_alter.sql文件以通过更改统一视图来调整时间边界:

ALTER VIEW ${var:view_name} AS
SELECT name, time, message
FROM ${var:kudu_table}
WHERE time >= "${var:new_boundary_time}"
UNION ALL
SELECT name, time, message
FROM ${var:hdfs_table}
WHERE time < "${var:new_boundary_time}"
AND year = year(time)
AND month = month(time)
AND day = day(time);

要运行SQL语句,请使用Impala shell并传递所需的变量,示例如下:

impala-shell -i <impalad:port> -f window_view_alter.sql
--var=view_name=my_table_view
--var=kudu_table=my_table_kudu
--var=hdfs_table=my_table_parquet
--var=new_boundary_time="2018-02-01"

创建window_partition_shift.sql文件以调整Kudu分区:

ALTER TABLE ${var:kudu_table}

ADD RANGE PARTITION add_months("${var:new_boundary_time}", 
${var:window_length}) <= VALUES < add_months("${var:new_boundary_time}", 
${var:window_length} + 1);

ALTER TABLE ${var:kudu_table}  

DROP RANGE PARTITION add_months("${var:new_boundary_time}", -1) 
<= VALUES < "${var:new_boundary_time}";

要运行SQL语句,请使用Impala shell并传递所需的变量,示例如下:

impala-shell -i <impalad:port> -f window_partition_shift.sql
--var=kudu_table=my_table_kudu
--var=new_boundary_time="2018-02-01"
--var=window_length=3

注意:应该定期在Kudu表上运行COMPUTE STATS,以确保Impala的查询性能最佳。

试验

我们已经创建了表、视图和脚本实现了滑动窗口模式,现在可以通过插入不同时间范围的数据并运行脚本来向前移动窗口来进行试验。

将一些示例值插入Kudu表:

INSERT INTO my_table_kudu VALUES
('joey', '2018-01-01', 'hello'),
('ross', '2018-02-01', 'goodbye'),
('rachel', '2018-03-01', 'hi');

在每个表/视图中显示数据:

SELECT * FROM my_table_kudu;
SELECT * FROM my_table_parquet;
SELECT * FROM my_table_view;

将1月数据移动到HDFS

impala-shell -i <impalad:port> -f window_data_move.sql
--var=kudu_table=my_table_kudu
--var=hdfs_table=my_table_parquet
--var=new_boundary_time="2018-02-01"

确认数据在两个位置,但在视图中不重复:

SELECT * FROM my_table_kudu;
SELECT * FROM my_table_parquet;
SELECT * FROM my_table_view;

改变视图将时间边界向前移至2月:

impala-shell -i <impalad:port> -f window_view_alter.sql
--var=view_name=my_table_view
--var=kudu_table=my_table_kudu
--var=hdfs_table=my_table_parquet
--var=new_boundary_time="2018-02-01"

确认数据仍在两个位置,但在视图中不重复:

SELECT * FROM my_table_kudu;
SELECT * FROM my_table_parquet;
SELECT * FROM my_table_view;

调整Kudu分区:

impala-shell -i <impalad:port> -f window_partition_shift.sql
--var=kudu_table=my_table_kudu
--var=new_boundary_time="2018-02-01"
--var=window_length=3

确认1月数据现在仅在HDFS中:

SELECT * FROM my_table_kudu;
SELECT * FROM my_table_parquet;
SELECT * FROM my_table_view;

使用ImpalaEXPLAIN语句确认谓词下推:

EXPLAIN SELECT * FROM my_table_view;
EXPLAIN SELECT * FROM my_table_view WHERE time < "2018-02-01";
EXPLAIN SELECT * FROM my_table_view WHERE time > "2018-02-01";

explain输出中,我们应该看到“kudu谓词”,其中包括“SCAN KUDU”部分中的时间列过滤器和“谓词”,其中包括“SCAN HDFS”部分中的时间、日、月和年列。

参考资料:

编译自:Transparent Hierarchical Storage Management with Apache Kudu and Impala

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 206,214评论 6 481
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 88,307评论 2 382
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 152,543评论 0 341
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 55,221评论 1 279
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 64,224评论 5 371
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,007评论 1 284
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,313评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,956评论 0 259
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 43,441评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,925评论 2 323
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,018评论 1 333
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,685评论 4 322
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,234评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,240评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,464评论 1 261
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,467评论 2 352
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,762评论 2 345

推荐阅读更多精彩内容