请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

启动hadoop时候执行start-dfs.sh,报了图中的错误,这是什么原因?

相关配置文件内容如下:

core-site.xml

<configuration>

  <property>

    <name>fs.default.name</name>

    <value>hdfs//:hadoop000:8020</value>

  </property>

</configuration>


hadoop-env.sh

export JAVA_HOME=/home/babycat/app/jdk1.8.0_91


hdfs-site.xml

<configuration>

  <property>

    <name>dfs.namenode.name.dir</name>

    <value>/home/babycat/app/tmp/dfs/name</value>

  </property>

  <property>

    <name>dfs.datanode.data.dir</name>

    <value>/home/babycat/app/tmp/dfs/data</value>

  </property>

  <property>

    <name>dfs.replication</name>

    <value></value>

  </property>

</configuration>


marped-site.xml

<configuration>

  <property>

    <name>mapreduce.framework.name</name>

    <value>yarn</value>

  </property>

</configuration>


yarn-site.xml

<configuration>https://img1.sycdn.imooc.com//szimg/5b78e00c0001312909750189.jpg


<!-- Site specific YARN configuration properties -->

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

</configuration>


正在回答 回答被采纳积分+3

1回答

Michael_PK 2018-08-19 13:40:00

ssh感觉配置的不对,现在应该是每个进程都需要你输入密码是吗?你把你用户的根目录下的隐藏文件夹.ssh删了,然后重新生成ssh。生成完,ssh localhost  或者  ssh 你的hostname测试下

0 回复 有任何疑惑可以回复我~
  • 提问者 baby猫 #1
    我试过很多次了,还是同样的问题。网上查找相关的解决方法也没有用。
    回复 有任何疑惑可以回复我~ 2018-08-20 14:50:28
  • Michael_PK 回复 提问者 baby猫 #2
    你下把ssh整OK了先,要ssh localhost  或者ssh 你的hostname一定要通,不然你每次启动hadoop都要输入密码,你输入密码也是可以用hadoop集群的,只不过麻烦点
    回复 有任何疑惑可以回复我~ 2018-08-20 15:29:20
  • 提问者 baby猫 #3
    重新生成.ssh, ssh hostname没问题的,可以正常登录。
    回复 有任何疑惑可以回复我~ 2018-08-20 15:31:42
问题已解决,确定采纳
还有疑问,暂不采纳
意见反馈 帮助中心 APP下载
官方微信