一, 启动hadoop:start-dfs.sh报错:Error: JAVA_HOME is not set and could not be found.
解决方法: 编辑$HADOOP_HOME/etc/hadoop/hadoop-env.sh
修改 exportJAVA_HOME=${JAVA_HOME}
export JAVA_HOME=/soft/jdk
二, 如果发现start-dfs.sh命令不存在,需要
(1)查看/etc/profile文件是否出现问题,如大小写,路径的完整性
export HADOOP_HOME=/soft/hadoop
exportPATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
(2)是否source环境变量
source /etc/profile
(3)出问题,需要格式化hadoop文件系统,步骤如下两步:
1、停止所有进程,命令stop-all.sh
2、格式化hadoop namenode -format
三。 用户权限问题
sudo chown –R hadoop /usr/local/hadoop:为hadoop用户赋予操作/usr/local/hadoop目录的权限
四, datanode没有启动
清空HDFS数据存储目录,然后重启hdfs
五, namenode没有启动
执行hadoop namenode –format对HDFS格式化
六. ping xxxxx name or service notknown 域名解析故障
1、重装V8网卡
2、重装之后 132.168.xxx.x网段会变
需要nano/etc/sysconfig/network-scripts/ifcfg-en33
修改静态IP
3、sudo nano /etc/resolv.conf,添加名称服务器,内容是网关地址。
nameserver 192.168.231.2
4、service network restart