1 下载hive安装包
下载地址:http://hive.apache.org/downloads.html
解压到任意目录
$ tar -zxvf apache-hive-2.1.1-bin.tar.gz
或 使用brew命令安装
$ brew install hive
如果没有特别设定过brew的路径配置,那么文件会在目录/usr/local/Cellar/hive
2 配置文件和环境变量
环境变量需要设置HIVE_HOME
export HIVE_HOME=/usr/local/Cellar/hive/2.1.0
export $PATH:$HIVE_HOME/bin
在路径../hive/2.1.0/libexec/conf
下提供了一些.template模板,拷贝文件并去掉.template后缀即可
2.1 hive-site.xml
将hive-default.xml.template文件复制一份,并且改名为hive-site.xml
$ cp hive-default.xml.template hive-site.xml
在hive-site.xml中有这样的配置:
<property>
<name>hive.metastore.warehouse.dir</name>
<value>/user/hive/warehouse</value>
</property>
<property>
<name>hive.exec.scratchdir</name>
<value>/tmp/hive</value>
</property>
在hdfs中新建目录/user/hive/warehouse
和/tmp/hive
,赋予读写权限
$ hadoop fs -mkdir -p /user/hive/warehouse
$ hadoop fs -chmod 777 /user/hive/warehouse
$ hadoop fs -mkdir -p /tmp/hive
$ hadoop fs -chmod 777 /tmo/hive
修改hive-site.xml中的临时目录
将hive-site.xml文件中的${system:java.io.tmpdir}替换为本地hive的临时目录,并赋予读写权限
将${system:user.name}都替换为root
全部替换掉
修改hive-site.xml数据库相关的配置
key | memo |
---|---|
javax.jdo.option.ConnectionURL | 将对应的value修改为MySQL的地址 |
javax.jdo.option.ConnectionDriverName | 将对应的value修改为MySQL驱动类路径 |
javax.jdo.option.ConnectionUserName | 将对应的value修改为MySQL数据库登录名 |
javax.jdo.option.ConnectionPassword | 将对应的value修改为MySQL数据库的登录密码 |
hive.metastore.schema.verification | 将对应的value修改为false |
修改后
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://127.0.0.1:3306/hive?createDatabaseIfNotExist=true</value>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value></value>
</property>
<property>
<name>hive.metastore.schema.verification</name>
<value>false</value>
</property>
下载MySQL驱动包到lib目录
2.2 hive-env.sh配置
将hive-env.sh.template文件复制一份,改名为hive-env.sh文件
打开hive-env.sh配置并且添加以下内容:
export HADOOP_HOME=/usr/local/Cellar/hadoop/2.8.0/libexec
export HIVE_CONF_DIR=/usr/local/Cellar/hive/2.1.1/conf
export HIVE_AUX_JARS_PATH=/usr/local/Cellar/hive/2.1.1/lib
2.3 WebUI
Hive从2.0版本开始,为HiveServer2提供了一个简单的WEB UI界面,界面中可以直观的看到当前链接的会话、历史日志、配置参数以及度量信息。
<property>
<name>hive.server2.webui.host</name>
<value>127.0.0.1</value>
</property>
<property>
<name>hive.server2.webui.port</name>
<value>10002</value>
</property>
需要重启HiveServer2
$ hive --service hiveserver2 &
启动和测试
对MySQL数据库进行初始化
执行成功后,hive数据库里已经有一堆表创建好了
$ cd $HIVE_HOME/bin/
$ schematool -initSchema -dbType mysql
启动hive
$ cd $HIVE_HOME/bin/
$ ./hive
测试
进入hive命令行
> show functions;
新建表以及导入数据的测试
> create database db_hive_edu;
> use db_hive_edu;
> create table student(id int,name string) row format delimited fields terminated by '\t';
# 将文件数据写入表中
$ touch /opt/hive/student.txt
001 zhangsan
002 lisi
003 wangwu
004 zhaoliu
005 chenqi
# 载入表
> load data local inpath '/opt/hive/student.txt' into table db_hive_edu.student;
# 测试
> select * from student;
OK
001 zhangsan
002 lisi
003 wangwu
004 zhaoliu
005 chenqi
# 查看hdfs上数据
/user/hive/warehouse/db_hive_edu.db/student
# 在MySQL中查看
$ SELECT * FROM hive.TBLS;
错误和解决
警告 Unable to load native-hadoop library for yourplatform
实际上其实这个警告可以不予理会。
报错There are 2 datanode(s) running and 2 node(s) areexcluded in this operation.
原因是你的hadoop中的datanode有问题,没法写入数据,检查hadoop是否正常运行