hadoop部署时的错误

1.执行了两次hdfs namenode -format

今天在机器上新装了hadoop2.6.0想体验一把新版本特征,安装好后发现启动dfs时datanode老是启动不了
这里写图片描述

查看namenode日志发现以下问题:
这里写图片描述

按日志内容来看,namenode和datanode的clusterID不一致。突然想起来之前格式化了两次namenode,应该是由于namenode多次格式化造成了namenode和datanode的clusterID不一致!每次格式化时,namenode会更新clusterID,但是datanode只会在首次格式化时确定,因此就造成不一致现象。

打开hdfs-site.xml里配置的datanode和namenode对应的目录,分别打开/var/hadoop/full/dfs/data/current/VERSIONcurrent文件夹里的VERSION,可以看到clusterID项正如日志里记录的一样,确实不一致:
这里写图片描述
这里写图片描述

修改datanode里VERSION文件的clusterID 与namenode里的一致,再重新启动dfs(执行start-dfs.sh)再执行jps命令可以看到datanode已正常启动。
这里写图片描述

2./etc/hosts 中没有添加IP改名的列表

3.浏览器不可以通过centos01:50070登陆,只能通过IP登陆,需要配置windows的hosts。

C:\Windows\System32\drivers\etc,以管理员身份配置。


猜你喜欢

转载自blog.csdn.net/lydh123456/article/details/80958138