一、安装JAVA
1.JDK安装:JDK下载地址
下载并安装,检查是否安装成功。
2.配置path,classpath路径
打开终端,打开profile文件(sudo vim /etc/profile)
末尾添加以下代码:
JAVA_HOME="/Library/Java/JavaVirtualMachines/jdk-10.0.2.jdk/Contents/Home/"
CLASS_PATH="$JAVA_HOME/lib"
PATH=".:$PATH:$JAVA_HOME/bin"
其中JAVA_HOME可通过打开Finder,快捷键 “Command + Shift + G”,输入
/Library/Java/JavaVirtualMachines/,得到路径。
添加成功后,输入”:wq!“ 保存并退出profile文件。重启终端,输入以下命令使之生效
3.查看更改后的路径
echo $JAVA_HOME
二、SSH配置
1.确认能够远程登录:系统偏好设置-共享-远程登录
2.其余略,终端测试:ssh localhost
三、安装Hadoop
1.下载Hadoop
2.进入相关文件夹,解压Hadoop
tar -zxvf hadoop-2.8.4.tar.gz
3.配置Hadoop
3.1添加环境变量
修改当前用户的文件:vim ~/.bash_profile
export JAVA_HOME=/Library/Java/JavaVirtualMachines/jdk-10.0.2.jdk/Contents/Home
export CLASSPATH=$JAVA_HOME/lib:$CLASSPATH
export HADOOP_HOME=/Users/darlenepretty/hadoop-2.8.4
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
添加成功后,使之生效下(source ~/.bash_profile)
可以通过echo $JAVA_HOME查看环境变量是否设置成功。
设置完成后,输入hadoop version,如果出现下面信息,表示hadoop开发环境变量设置好了
3.2配置hadoop-env.sh
先进入Hadoop的根目录”/Users/darlenepretty/hadoop-2.8.4/etc/hadoop“
添加如下语句:
export HADOOP_OPTS="-Djava.security.krb5.realm=OX.AC.UK -Djava.security.krb5.kdc=kdc0.ox.ac.uk:kdc1.ox.ac.uk"
3.3配置core-site.xml
输入以下内容:
<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>/Users/darlenepretty/hadoop-2.8.4/data</value>
<description>A base for other temporary directories.</description>
</property>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
其中,localhost:9000代表本地主机。
3.4配置hdfs-site.xml
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
3.5配置mapred-site.xml
由于hadoop的根目录下的etc/hadoop目录下没有mapred-site.xml文件,所以需要创建该文件,但是我们可以直接把etc/hadoop目录下的mapred-site.xml.template文件重命名为mapred-site.xml,然后配置数据处理的框架为yarn。
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
3.6配置yarn-site.xml
<configuration>
<!-- Site specific YARN configuration properties -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.resourcemanager.address</name>
<value>localhost:9000</value>
</property>
</configuration>
3.7启动Hadoop
执行:hadoop namenode -format
出现如下界面,表示namenode启动成功
3.8启动hdfs
执行:start-dfs.sh
然后输入三次密码!
3.9启动yarn
执行:start-yarn.sh
在执行:jps
出现如下界面,表示Hadoop启动完成!
四、查看Hadoop
http://localhost:50070/