请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

这个问题要如何解决

java.io.EOFException: End of File Exception between local host is: “hadoop000/192.168.1.118”; destination host is: “hadoop000”:8020; : java.io.EOFException; For more details see: http://wiki.apache.org/hadoop/EOFException
at sun.reflect.NativeConstructorAccessorImpl.newInstance0(Native Method)
at sun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstructorAccessorImpl.java:57)
at sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingConstructorAccessorImpl.java:45)
at java.lang.reflect.Constructor.newInstance(Constructor.java:526)
at org.apache.hadoop.net.NetUtils.wrapWithMessage(NetUtils.java:791)
at org.apache.hadoop.net.NetUtils.wrapException(NetUtils.java:764)
at org.apache.hadoop.ipc.Client.call(Client.java:1475)
at org.apache.hadoop.ipc.Client.call(Client.java:1408)
at org.apache.hadoop.ipc.ProtobufRpcEngineInvoker.invoke(ProtobufRpcEngine.java:230)atcom.sun.proxy.Invoker.invoke(ProtobufRpcEngine.java:230) at com.sun.proxy.Invoker.invoke(ProtobufRpcEngine.java:230)atcom.sun.proxy.Proxy13.sendHeartbeat(Unknown Source)
at org.apache.hadoop.hdfs.protocolPB.DatanodeProtocolClientSideTranslatorPB.sendHeartbeat(DatanodeProtocolClientSideTranslatorPB.java:154)
at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.sendHeartBeat(BPServiceActor.java:557)
at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.offerService(BPServiceActor.java:660)
at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.run(BPServiceActor.java:851)
at java.lang.Thread.run(Thread.java:745)
Caused by: java.io.EOFException
at java.io.DataInputStream.readInt(DataInputStream.java:392)
at org.apache.hadoop.ipc.ClientConnection.receiveRpcResponse(Client.java:1080)atorg.apache.hadoop.ipc.ClientConnection.receiveRpcResponse(Client.java:1080) at org.apache.hadoop.ipc.ClientConnection.receiveRpcResponse(Client.java:1080)atorg.apache.hadoop.ipc.ClientConnection.run(Client.java:975)

这个问题是namenodeid和datanodeid的不一致的问题吗,
如果不是该怎么解决。

我们平时操作的时候如何解决namenodeid和datanodeid不一致的问题?

正在回答 回答被采纳积分+3

插入代码

1回答

Michael_PK 2019-08-15 19:31:37

namenodeid和datanodeid不一致 一般是 格式化之前没有把dfs.namenode.name.dir以及dfs.datanode.data.dir指定的目录清除了。

你这个问题,至少从你提交的日志上并没看到是不一致的信息。你看下你的hadoop000机器的ip是否是192.168.1.118,以及他们的映射关系是否配置对了


0 回复 有任何疑惑可以回复我~
  • 提问者 chipinzhen #1
    是的 我检查过 映射是对的
    回复 有任何疑惑可以回复我~ 2019-08-15 20:02:01
  • Michael_PK 回复 提问者 chipinzhen #2
    hostname 或者ip能 ping通吗?  你这个日志是DN的日志吗? 再去NN上看看日志?  这是启动Hadoop集群的过程中的错误吧?
    回复 有任何疑惑可以回复我~ 2019-08-15 20:07:46
  • 提问者 chipinzhen 回复 Michael_PK #3
    是的 都能ping通 是dn的日志  nn上没有报错。是在启动的过程中报的错误 我再研究研究
    回复 有任何疑惑可以回复我~ 2019-08-15 20:13:30
问题已解决,确定采纳
还有疑问,暂不采纳
意见反馈 帮助中心 APP下载
官方微信