采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
列出文件的api可以正常使用
读取文件的就报错了,而且写入文件也报错如下:
麻烦老师帮忙看看吧
第一个:block丢失,你重新put一个上去再测试, 第二个:你重新你的hdfs不正常。 总的来说你的hdfs应该不是出于正常工作状态
我也发现了,我是自己搭的环境,不知道哪里有坑-_-||
在启动的时候我发现 namenode 是hadoop000 启动的 datanode是localhost 启动的
用netstat查询,监听的ip都是127.0.0.1,所以在linux系统用命令操作都没有问题,远程用api操作就出现问题了
呵呵,两个问题都解决了。
之前修改 /etc/hosts 文件的时候我修改的 127.0.0.1 后面为hadoop000
现在我 127.0.0.1 后面不改,还是localhost
添加了一行:
192.168.xxx.xxx hadoop000 之后,不需要加property-dfs.namenode.rpc-bind-host也可以正常访问hdfs了,同时可以创建和读取文件了,艰辛啊,哈哈
登录后可查看更多问答,登录/注册
【毕设】大数据零基础入门必备,轻松掌握Hadoop开发核心技能
1.4k 30
2.5k 28
1.3k 17
1.4k 16
1.0k 13
购课补贴联系客服咨询优惠详情
慕课网APP您的移动学习伙伴
扫描二维码关注慕课网微信公众号