请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

hdfs写入数据报错

三金老师,我用java api向hdfs写入文件报错,org.apache.hadoop.util.NativeCrc32.nativeComputeChunkedSumsByteArray(II[BI[BIILjava/lang/String;JZ)V
这是什么原因?另外,fileInputStream是不是可以读取所有类型的数据,包括txt,zip,png等?感谢!

正在回答

2回答

叁金 2020-03-13 12:59:10

你好 ,你这个问题我没有遇见过,经过搜索发现多是说在windows环境下访问远程hadoop的版本问题导致的。你在确认一下你本地的hadoop版本和远端是否一致。

0 回复 有任何疑惑可以回复我~
提问者 慕标8927085 2020-03-13 09:04:38

我是从win10本地向部署在云centos系统上的hadoop传文件,现在报错File could only be replicated to 0 nodes instead of minReplication (=1).  There are 1 datanode(s) running and 1 node(s) are excluded in this operation。对namenode进行format也没用

0 回复 有任何疑惑可以回复我~
问题已解决,确定采纳
还有疑问,暂不采纳
意见反馈 帮助中心 APP下载
官方微信