采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
老师您好,现在我想学习用nohup 后台跑spark-submit 的任务,刚开始是正常的,jps也能看到,但是开了一会以后自己退出了,看不到错误的信息,请问这个日志是输出到哪里了呢?那个 nohup.out 是空的…
你这么测试,一个脚本里面echo东西的,你用nohup启动,将日志输出到一个文件中。这么做的目的是确定你的启动脚本写的对不对。
你是虚拟机吗,有可能是资源太少被干掉了。当然最好是根据上面的思路明确找到日志
老师你的意思是写一个sh脚本吗?在脚本里面执行nohup? 我用的云主机,监控的情况也没有用到很多,4个G内存吃了6成。
4g的话,Hadoop一套,sparkonyarn,还有其他的,应该是不够了。你可以看看现在机器内存还剩多少。这个情况很大可能就是内存不够被干掉了
老师我没有用spark on yarn, 我直接用的spark submit. 然后flume, 平均占用也就65%.
登录后可查看更多问答,登录/注册
Flume+Kafka+Spark Streaming 构建通用实时流处理平台
1.6k 89
975 14
2.2k 13
1.5k 12
2.2k 12