请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

Java Api可以查看,不能写入和读取

https://img1.sycdn.imooc.com//szimg/59fadf710001cea913280488.jpg

列出文件的api可以正常使用

读取文件的就报错了,而且写入文件也报错如下:https://img1.sycdn.imooc.com//szimg/59fae158000184d017780647.jpg

麻烦老师帮忙看看吧

正在回答

插入代码

2回答

第一个:block丢失,你重新put一个上去再测试, 第二个:你重新你的hdfs不正常。 总的来说你的hdfs应该不是出于正常工作状态

0 回复 有任何疑惑可以回复我~
  • 提问者 WGray0 #1
    我也发现了,我是自己搭的环境,不知道哪里有坑-_-||
    回复 有任何疑惑可以回复我~ 2017-11-03 10:08:14
  • 提问者 WGray0 #2
    在启动的时候我发现 namenode 是hadoop000 启动的
    datanode是localhost 启动的
    回复 有任何疑惑可以回复我~ 2017-11-03 10:09:06
  • 提问者 WGray0 #3
    用netstat查询,监听的ip都是127.0.0.1,所以在linux系统用命令操作都没有问题,远程用api操作就出现问题了
    回复 有任何疑惑可以回复我~ 2017-11-03 10:11:36
提问者 WGray0 2017-11-03 10:22:26

呵呵,两个问题都解决了。

之前修改 /etc/hosts 文件的时候我修改的 127.0.0.1 后面为hadoop000

现在我 127.0.0.1 后面不改,还是localhost

添加了一行:

192.168.xxx.xxx hadoop000 之后,不需要加property-dfs.namenode.rpc-bind-host也可以正常访问hdfs了,同时可以创建和读取文件了,艰辛啊,哈哈

1 回复 有任何疑惑可以回复我~
问题已解决,确定采纳
还有疑问,暂不采纳
微信客服

购课补贴
联系客服咨询优惠详情

帮助反馈 APP下载

慕课网APP
您的移动学习伙伴

公众号

扫描二维码
关注慕课网微信公众号