Hive从入门到精通10:Hive的数据模型

Hive的数据是存储在HDFS上的,且没有专门的数据存储格式。Hive可以直接加载文本文件来创建表,只需要在创建时指定列分隔符和行分隔符即可。Hive的数据模型主要有:数据库、文件、表和视图等。Hive中的表又分为4类:内部表,分区表、桶表和外部表。

小技巧:

如果不想在执行HQL语句时打印日志,可以用Hive的静默模式(-S选项, Silence)启动Hive:

[root@master ~]# hive -S
hive>

1.Inner Table (内部表)

与数据库中的Table在概念上是类型的;Hive的每一个Table在HDFS上都有一个相应的目录存储数据;一个Table的所有数据都保存在该目录下(不包括外部表);删除一个Table时,数据和元数据都会被删除。

示例:创建一张内部表emp_in(注意:默认分隔符是Tab键,这里导入csv文件需要指定分隔符为逗号)

hive> create table emp_in (
empno int,
ename string,
job string,
mgr int,
hiredate string,
sal int,
comm int,
deptno int
)
row format delimited fields terminated by ',';
OK
Time taken: 1.057 seconds
hive> show tables;
OK
emp_in
Time taken: 0.005 seconds, Fetched: 1 row(s)

使用load命令往emp_in表导入数据:/input/emp.csv,load命令既可以导入HDFS上的数据,也可以导入本地文件系统上的数据,但是需要注意的是,load命令相当于Ctrl+X和Ctrl+V,即使用load导入数据之后,源数据就不存在了。

导入HDFS上的数据:

hive> load data inpath '/input/emp.csv' into table emp_in;
Loading data to table default.emp_in
Table default.emp_in stats: [numFiles-1, numRows-0, totalSize-617, rawDataSize-0]
OK
Time taken: 0.759 seconds

导入本地系统上的数据:

hive> load data local inpath '/input/emp.csv' into table emp_in;

查询表数据:

hive> select * from emp_in;(简单:不会转成MapReduce任务)
hive> select * from emp_in where deptno = 10;(复杂:会转成MapReduce任务)
hive> select * from emp_in order by sal;(复杂:会转成MapReduce任务)

2.Partition Table (分区表)

Partition对应于数据库的列的密集索引;Table的一个Partition对应与Table目录下的一个子目录,所有本Partition的数据都存储在该子目录下面;使用Partition可以提高查询效率。

示例:创建一张分区表,按照员工的部门号进行分区

hive> create table emp_part (
empno int,
ename string,
job string,
mgr int,
hiredate string,
sal int,
comm int
)
partitioned by (deptno int)
row format delimited fields terminated by ',';

使用insert into … select …语句往分区表插入数据:/input/emp.csv,会转成MapReduce任务。

hive> insert into table emp_part partition(deptno = 10)
select empno,ename,mgr,hiredate,sal,comm from emp_in where deptno = 10;
hive> insert into table emp_part partition(deptno = 20)
select empno,ename,mgr,hiredate,sal,comm from emp_in where deptno = 20;
hive> insert into table emp_part partition(deptno = 30)
select empno,ename,mgr,hiredate,sal,comm from emp_in where deptno = 30;

分区表目录下是以分区建立的子目录:

[root@master ~]# hdfs dfs -ls /hive/warehouse/emp_part

建立分区可以提高查询效率:

示例:查询10号部门的员工——对比分区表和内部表的查询计划

hive> explain select * from emp_in where deptno = 10;
STAGE DEPENDENCIES:
Stage-1 is a root stage
Stage-0 is a root stage

STAGE PLANS:
Stage: Stage-1
Map Reduce
Map Operator Tree:
TableScan
alias: emp_in
Statistics: Num rows: 1 Data size: 617 Basic stats: COMPLETE Column stats: NONE
Filter Operator
predicate: (deptno = 10) (type: boolean)
Statistics: Num rows: 0 Data size: 0 Basic stats: NONE Column stats: NONE
Select Operator
expressions: empno (type: int), ename (type: string), job (type: string), mgr (type: int), hiredate (type: string), sal (type: int), comm (type: int), deptno (type: int)
outputColumnNames: _col0, _col1, _col2, _col3, _col4, _col5, _col6, _col7
Statistics: Num rows: 0 Data size: 0 Basic stats: NONE Column stats: NONE
File Output Operator
compressed: false
Statistics: Num rows: 0 Data size: 0 Basic stats: NONE Column stats: NONE
table:
input format: org.apache.hadoop.mapred.TextInputFormat
output format: org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat
serde: org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe

Stage: Stage-0
Fetch Operator
limit: -1
hive> explain select * from emp_part where deptno = 10;
STAGE DEPENDENCIES:
Stage-0 is a root stage

STAGE PLANS:
Stage: Stage-0
Fetch Operator
limit: -1
Processor Tree:
TableScan
alias: emp_part
Statistics: Num rows: 3 Data size: 121 Basic stats: COMPLETE Column stats: NONE
Select Operator
expressions: empno (type: int), ename (type: string), job (type: string), mgr (type: int), hiredate (type: string), sal (type: int), comm (type: int), deptno (type: int)
outputColumnNames: _col0, _col1, _col2, _col3, _col4, _col5, _col6, _col7
Statistics: Num rows: 3 Data size: 121 Basic stats: COMPLETE Column stats: NONE
ListSink

通过打印出来的执行计划可以看到,内部表扫描的数据量是617个字节,分区表扫描的数据量是121个字节,因此建立分区表可以大大提高查询效率(只限于分区上查询)。

3.Bucket Table (桶表)

桶表是对数据的键值进行Hash,然后存储在不同的文件中;使用桶表需要设置环境变量set hive.enforce.bucketing=true;。当然使用桶表也可以提高查询效率,尤其是在分区后再分桶,可以进一步提高查询效率。注意:与分区不同,桶是一个文件,不是目录。

使用桶表的前提,打开开关:

hive> set hive.enforce.bucketing=true;

示例:创建一个桶表,根据员工的职位(job)分桶。

hive> create table emp_bucket (
empno int,
ename string,
job string,
mgr int,
hiredate string,
sal int,
comm int,
deptno int
)
clustered by (job) into 4 buckets
row format delimited fields terminated by ',';

往桶表插入数据:

hive> insert into table emp_bucket select * from emp_in;
[root@master ~]# hdfs dfs -ls /hive/warehouse/emp_bucket
Found 4 items
-rw-r--r-- 1 root root 45 2018-08-28 11:12 /hive/warehouse/emp_bucket/000000_0
-rw-r--r-- 1 root root 304 2018-08-28 11:12 /hive/warehouse/emp_bucket/000001_0
-rw-r--r-- 1 root root 276 2018-08-28 11:12 /hive/warehouse/emp_bucket/000002_0
-rw-r--r-- 1 root root 0 2018-08-28 11:12 /hive/warehouse/emp_bucket/000003_0

[root@master ~]# hdfs dfs -car /hive/warehouse/emp_bucket/000000_0
7839,KING,PRESIDENT,\N,1981/11/17,5000,\N,10

hive> select * from emp_bucket;

4.External Table (外部表)

外部表的实际数据不是存储在数据仓库目录下,而是直接存储在HDFS上;外部表的元数据和内部表是一样的,都是存储在数据库中;创建外部表就是建立一个指向HDFS上已有数据的连接,加载数据和创建表同时完成,并不会将实际数据移动到数据仓库中;删除外部表时,只是删除了该连接和相应的元信息,实际数据并不会删除。

示例:创建外部表student_ext,指向HDFS上已有的目录/input/students

[root@master ~]# hdfs dfs -ls /input/students
Found 3 items
-rw-r--r-- 1 root root 19 2018-08-28 11:12 /input/students/student01.txt
-rw-r--r-- 1 root root 19 2018-08-28 11:12 /input/students/student02.txt
-rw-r--r-- 1 root root 19 2018-08-28 11:12 /input/students/student03.txt
[root@master ~]# hdfs dfs -cat /input/students/student01.txt
1,Tom,23
[root@master ~]# hdfs dfs -cat /input/students/student02.txt
2,Mary,21
[root@master ~]# hdfs dfs -cat /input/students/student03.txt
3,Jack,22

hive> create table students_ext(sid int, sname string, sage int)
row format delimited fields terminated by ','
location '/input/students';

hive> select * from students_ext;
1 Tom 23
2 Mary 21
3 Jack 22

外部表指向的目录下的数据有变化时,外部表的数据也跟着变化:

[root@master ~]# hdfs dfs -rmr /input/students/student03.txt
hive> select * from students_ext;
1 Tom 23
2 Mary 21

删除外部表时,原来指向的目录下的数据不删除

hive> drop table students_ext;
hive> select * from students_ext;(出错:表不存在)
[root@master ~]# hdfs dfs -ls /input/students
Found 2 items
-rw-r--r-- 1 root root 19 2018-08-28 11:12 /input/students/student01.txt
-rw-r--r-- 1 root root 19 2018-08-28 11:12 /input/students/student02.txt

重建外部表,数据又回来了

hive> create table students_ext(sid int, sname string, sage int)
row format delimited fields terminated by ','
location '/input/students';

hive> select * from students_ext;
1 Tom 23
2 Mary 21

5.View(视图)

Hive 中的视图(View),是一种虚表(不保存数据,用于简化查询),是一个逻辑概念,可以跨越多张表;视图建立在已有表的基础上,视图赖以建立的这些表成为基表;使用视图可以简化复杂查询。

示例:查询10号部门的员工

hive> select * from emp_in where deptno = 10;
7782 CLARK MANAGER 7839 1981/6/9 2450 NULL 10
7839 KING PRESIDENT NULL 1981/11/17 5000 NULL 10
7934 MILLER CLERK 7782 1982/1/23 1300 NULL 10

hive> create view10 as select * from emp_in where deptno = 10;

hive> select * from view10;
7782 CLARK MANAGER 7839 1981/6/9 2450 NULL 10
7839 KING PRESIDENT NULL 1981/11/17 5000 NULL 10
7934 MILLER CLERK 7782 1982/1/23 1300 NULL 10

所有数据模型的元信息都被保存到MySQL数据库中:

  • MySQL->hive->TBL:保存Hive中表的信息
  • MySQL->hive->COLUMNS:保存Hive中列的元信息
  • MySQL->hive->PARTION%:保存Hive中分区的元信息
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 199,902评论 5 468
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 84,037评论 2 377
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 146,978评论 0 332
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 53,867评论 1 272
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 62,763评论 5 360
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,104评论 1 277
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,565评论 3 390
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,236评论 0 254
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,379评论 1 294
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,313评论 2 317
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,363评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,034评论 3 315
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,637评论 3 303
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,719评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,952评论 1 255
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,371评论 2 346
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 41,948评论 2 341

推荐阅读更多精彩内容