请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

hadoop000: ssh: connect to host hadoop000 port 22: Connection timed out

正在回答 回答被采纳积分+3

5回答

提问者 少帅521 2018-07-06 16:35:11

最后看了下 sudo vi /etc/hosts

终于找到问题,原来是ip配错了


1 回复 有任何疑惑可以回复我~
提问者 少帅521 2018-07-06 16:50:36

终于搞定了

0 回复 有任何疑惑可以回复我~
提问者 少帅521 2018-07-06 16:37:34

https://img1.sycdn.imooc.com//szimg/5b3f2a29000180e502410080.jpg

现在没有datanode,很尴尬


0 回复 有任何疑惑可以回复我~
  • 提问者 少帅521 #1
    我感觉这样不是很畅快解决问题,所以直接/home/hadoop/hadoop-2.4.1/tmp/dfs/data/current下面的VERSION删除了,然后再执行一下又重新执行了格式化命令(hdfs namenode -format),最后启动start-dfs.sh和start-yarn.sh就可以了;
    回复 有任何疑惑可以回复我~ 2018-07-06 16:50:25
  • Michael_PK 回复 提问者 少帅521 #2
    建议第一次format好就别动了,否则数据就没了
    回复 有任何疑惑可以回复我~ 2018-07-06 17:27:17
提问者 少帅521 2018-07-06 16:13:56

还是不行,搞了半天一直解决不了这问题

0 回复 有任何疑惑可以回复我~
提问者 少帅521 2018-07-06 15:48:57

2018-07-06 15:45:38,921 WARN org.apache.hadoop.util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable


0 回复 有任何疑惑可以回复我~
问题已解决,确定采纳
还有疑问,暂不采纳
意见反馈 帮助中心 APP下载
官方微信