请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

关于提交作业到Spark on yarn cluster时,出现如下问题???

一直处于state: ACCEPTED状态,我查了一下,是应为虚拟机内存(3G)的太小了嘛?我提交yarn client是可以正常运行的。

命令:

./bin/spark-submit \
--class org.apache.spark.examples.SparkPi \
--master yarn-cluster \
--executor-memory 1G \
--num-executors 1 \
/home/hadoop/app/spark-2.1.0-bin-2.6.0-cdh5.7.0/examples/jars/spark-examples_2.11-2.1.0.jar \
4

https://img1.sycdn.imooc.com//szimg/5b17defe0001772f13710696.jpg

正在回答 回答被采纳积分+3

1回答

Michael_PK 2018-06-06 23:46:43

accept的说明你的作业还没真正拿到yarn的资源,请检查下yarn是否正常或者有资源

0 回复 有任何疑惑可以回复我~
  • 多谢老师,现在问题解决了,查看日志,是因为磁盘空间不够了,导师yarn资源不够,出现了Unhealthy Nodes,我删除了虚拟机一下文件,现在yarn可以正常启动了,作业也可以正常启动了。
    回复 有任何疑惑可以回复我~ 2018-06-07 15:03:27
问题已解决,确定采纳
还有疑问,暂不采纳
意见反馈 帮助中心 APP下载
官方微信