采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
老师您好,我这个问题感觉挺多人都碰到过,您回答说是有可能是clusterID的错误,请问要怎么查看错误并改正呢
去hadoop home下的logs找你缺失进程的日志,看里面说什么
我想请问一下 ,如果使用的是所有软件都下载好的镜像文件,是否还需要自己配置这些环境呢。因为我一开始运行hdfs的时候是所有进程都在的。然后我在格式化hdfs之后,datanode就没有了。而且我在根据课程改某些配置文件的时候也发现他们有一些已经有需要添加的内容了。
ootb环境,由于IP发生变化,如果自己改不好,那可能是有问题的。学习建议自己重头到尾自己动手搞,不然没啥意义
java.io.IOException: Incompatible clusterIDs in /home/hadoop/tmp/dfs/data: namenode clusterID = CID-a09e7486-e707-4a64-9cf0-8ca29c9705e9; datanode clusterID = CID-05a3dd5d-5073-4cdb-9d20-9e2ebe142c29 老师好像就是clusterID的问题,原因我查了一下是因为第二次格式化namenode导致namenode的clusterID变了。我按网上说的把namenode的id改成datanode的id就好了
登录后可查看更多问答,登录/注册
快速转型大数据:Hadoop,Hive,SparkSQL步步为赢
2.1k 6
2.3k 1
1.6k 21
1.9k 18
购课补贴联系客服咨询优惠详情
慕课网APP您的移动学习伙伴
扫描二维码关注慕课网微信公众号