请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

正在回答

4回答

你在使用start-dfs.sh时,系统中已经启动过了,所以会提示stop it first, 建议先将hdfs先stop掉再重启,如果已经重启了,那么就没必要再次启动。对于DataNode还是没有的话,建议查看下datanode对应的日志信息

0 回复 有任何疑惑可以回复我~
  • 提问者 进击的大黄鸭 #1
    非常感谢!
    回复 有任何疑惑可以回复我~ 2017-07-09 16:07:26
  • 我也遇到这个问题,可是怎么修改呢?
    回复 有任何疑惑可以回复我~ 2019-03-20 20:13:14
  • Michael_PK 回复 陈素素 #3
    把你的hdfs配置文件中的tmp目录配置的地方全部删除,重新格式化下,重启
    回复 有任何疑惑可以回复我~ 2019-03-20 23:24:01
提问者 进击的大黄鸭 2017-06-19 22:08:15

已解决,遇到我这个问题的同学 注意datanode和namenode中的namespaceID是否相同  原因是多次格式化

1 回复 有任何疑惑可以回复我~
  • 这个问题怎么解决呢?重新解压hadoop文件吗?还是有其他的解决办法
    回复 有任何疑惑可以回复我~ 2017-07-05 13:12:17
  • http://blog.csdn.net/zhangt85/article/details/42078347看看这个吧
    回复 有任何疑惑可以回复我~ 2017-07-05 14:27:38
  • 你好,能否详细说明一下如何解决的,哪里可以查看namespaceID?
    回复 有任何疑惑可以回复我~ 2017-08-14 14:00:52
程序员bingo 2017-10-14 11:42:31

我也是这个问题 怎么修改?

0 回复 有任何疑惑可以回复我~
慕瓜155437 2017-08-14 14:25:50

我的namenode和DataNode的clusterID一致,可是仍然无法启动datanode=。=https://img1.sycdn.imooc.com/szimg//5991426b0001fecc06210307.jpg

!解决了  我查看的位置错误,不是~/tmp/dfs  应该是~/app/tmp/dfs

0 回复 有任何疑惑可以回复我~
问题已解决,确定采纳
还有疑问,暂不采纳
意见反馈 帮助中心 APP下载
官方微信