采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
cd /home/hadoop/tmp/dfs/ 将name/current下的VERSION中的clusterID复制到data/current下的VERSION中,覆盖掉原来的clusterID 出现该问题的原因:在第一次格式化dfs后,启动并使用了hadoop,后来又重新执行了格式化命令(hdfs namenode -format),这时namenode的clusterID会重新生成,而datanode的clusterID 保持不变。 记录下
遇到相同的问题,解决了,多谢分享!
太厉害了!真的赞!
厉害厉害,我也是格式化后遇到了这个问题,根据你的提示很快就解决了,谢谢大佬
查看datanode的日志
登录后可查看更多问答,登录/注册
快速转型大数据:Hadoop,Hive,SparkSQL步步为赢
2.1k 6
2.3k 1
1.6k 21
1.9k 18
购课补贴联系客服咨询优惠详情
慕课网APP您的移动学习伙伴
扫描二维码关注慕课网微信公众号