采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
你在使用start-dfs.sh时,系统中已经启动过了,所以会提示stop it first, 建议先将hdfs先stop掉再重启,如果已经重启了,那么就没必要再次启动。对于DataNode还是没有的话,建议查看下datanode对应的日志信息
非常感谢!
我也遇到这个问题,可是怎么修改呢?
把你的hdfs配置文件中的tmp目录配置的地方全部删除,重新格式化下,重启
已解决,遇到我这个问题的同学 注意datanode和namenode中的namespaceID是否相同 原因是多次格式化
这个问题怎么解决呢?重新解压hadoop文件吗?还是有其他的解决办法
http://blog.csdn.net/zhangt85/article/details/42078347看看这个吧
你好,能否详细说明一下如何解决的,哪里可以查看namespaceID?
我也是这个问题 怎么修改?
我的namenode和DataNode的clusterID一致,可是仍然无法启动datanode=。=
!解决了 我查看的位置错误,不是~/tmp/dfs 应该是~/app/tmp/dfs
登录后可查看更多问答,登录/注册
快速转型大数据:Hadoop,Hive,SparkSQL步步为赢
1.6k 6
1.8k 6
1.9k 1
1.2k 21
1.5k 18