-
搭建HDFS
HDFS是一个高度容错性的系统,适合部署在廉价的机器上。HDFS能提供高吞吐量的数据访问,非常适合大规模数据集上的应用。
-
安装hadoop:
➜ bin brew install hadoop
-
配置ssh免密码登录
用dsa密钥认证来生成一对公钥和私钥:➜ hadoop ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
-
将生成的公钥加入到用于认证的公钥文件中:
➜ hadoop cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_key
-
验证配置是否成功:
➜ hadoop ssh localhost
-
配置core-site.xml(/usr/local/Cellar/hadoop/2.8.0/libexec/etc/hadoop):
<configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> </configuration>
-
配置hdfs-site.xml:
<configuration> <property> <name>dfs.replication</name> <value>1</value> </property> </configuration>
-
配置mapred-site.xml:
<configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration>
-
配置yarn-site.xml:
<configuration> <!-- Site specific YARN configuration properties --> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> </configuration>
进入hadoop目录(/usr/local/Cellar/hadoop/2.8.0/libexec):
-
格式化文件系统:
➜ libexec bin/hdfs namenode -format
-
启动NameNode和DataNode的守护进程:
➜ libexec sbin/start-dfs.sh
-
启动ResourceManager和NodeManager的守护进程:
➜ libexec sbin/start-yarn.sh
-
访问localhost:50070和localhost:8088测试是否正常
-
创建hdfs目录:
➜ libexec bin/hdfs dfs -mkdir /user ➜ libexec bin/hdfs dfs -mkdir /user/lkc
-
拷贝一些文件:
➜ libexec bin/hdfs dfs -put /Users/lkc/Desktop/Other input
查看一下拷贝成功:
-
搭建ZooKeeper
ZooKeeper是一个分布式的,开放源码的分布式应用程序协调服务,是Google的Chubby一个开源的实现,是Hadoop和Hbase的重要组件。它是一个为分布式应用提供一致性服务的软件,提供的功能包括:配置维护、域名服务、分布式同步、组服务等。
从官网下载:ZooKeeper官网
-
解压:
tar zxvf zookeeper-3.4.10.tar.gz
-
进入主目录新建一个zoo.cfg的文件,内容如下:
tickTime=2000 dataDir= /Users/lkc/Desktop/Other/zookeeper-3.4.10/data (填写自己的data目录) dataLogDir=/Users/lkc/Desktop/Other/出单zookeeper-3.4.10/logs clientPort=2181
-
运行zookeeper:
�
./bin/zkServer.sh start
-
执行
telnet 127.0.0.1 2181
查看是否启动成功.
-
停止命令:
./bin/zkServer.sh stop
-
搭建HBase
-
Hbase是Hadoop的数据库, 而Hive数据库的管理工具, hbase具有
分布式, 可扩展及面向列存储
的特点(基于谷歌BigTable). HBase可以使用本地文件系统和HDFS文件存储系统, 存储的是松散的数据(key-value的映射关系).HBase位于HDFS的上层, 向下提供存储, 向上提供运算
-
安装:
brew install hbase
-
配置:
在
conf/hbase-env.sh
设置JAVA_HOMEexport JAVA_HOME="/usr/bin/java"
-
在
conf/hbase-site.xml
设置HBase的核心配置<configuration> <property> <name>hbase.rootdir</name> //这里设置让HBase存储文件的地方 <value>file:///Users/lkc/Desktop/Other/hbase</value> </property> <property> <name>hbase.zookeeper.property.dataDir</name> //这里设置让HBase存储内建zookeeper文件的地方 <value>/Users/lkc/Desktop/Other/zookeeper-3.4.10</value> </property> </configuration>
/usr/local/Cellar/hbase/1.2.2/bin/start-hbase.sh
提供HBase的启动-
验证是否成功:
➜ bin ./start-hbase.sh starting master, logging to /usr/local/var/log/hbase/hbase-lkc-master-localhost.out Java HotSpot(TM) 64-Bit Server VM warning: ignoring option PermSize=128m; support was removed in 8.0 Java HotSpot(TM) 64-Bit Server VM warning: ignoring option MaxPermSize=128m; support was removed in 8.0 ➜ bin jps 15171 Jps 7907 DataNode 7828 NameNode 15093 HMaster 8006 SecondaryNameNode
-
启动HBase shell:
➜ bin ./hbase shell 2017-06-11 23:18:38,460 WARN [main] util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable SLF4J: Class path contains multiple SLF4J bindings. SLF4J: Found binding in [jar:file:/usr/local/Cellar/hbase/1.2.2/libexec/lib/slf4j-log4j12-1.7.5.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: Found binding in [jar:file:/Users/lkc/Downloads/hadoop-2.8.0/share/hadoop/common/lib/slf4j-log4j12-1.7.10.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation. SLF4J: Actual binding is of type [org.slf4j.impl.Log4jLoggerFactory] HBase Shell; enter 'help<RETURN>' for list of supported commands. Type "exit<RETURN>" to leave the HBase Shell Version 1.2.2, r3f671c1ead70d249ea4598f1bbcc5151322b3a13, Fri Jul 1 08:28:55 CDT 2016 hbase(main):001:0> exit
-
停止:
./bin/stop-hbase.sh
-
搭建分布式Hadoop环境(Mac)
最后编辑于 :
©著作权归作者所有,转载或内容合作请联系作者
- 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
- 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
- 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
推荐阅读更多精彩内容
- 简述 hadoop 集群一共有4种部署模式,详见《hadoop 生态圈介绍》。HA联邦模式解决了单纯HA模式的性能...
- 入门指南 1. 简介 Quickstart会让你启动和运行一个单节点单机HBase。 2. 快速启动 – 单点HB...
- 引用:http://www.jianshu.com/p/575b912a4781 Hadoop、HBase、Hiv...
- Hadoop、HBase、Hive、Spark分布式系统架构,本文通过全套部署方法来让大家深入系统内部以充分理解...
- 简述 hadoop 集群一共有4种部署模式,详见《hadoop 生态圈介绍》。HA模式的集群里面会部署两台NN(最...