请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

先执行stop-all.sh,再执行start-all.sh,前一次启动的worker还在

先执行stop-all.sh,再执行start-all.sh,前一次启动的worker还在,SPARK_WORKER_INSTANCES=1这个没起作用似的,worker个数好像跟slaves中主机个数有关,到了一定个数就不增加了

正在回答 回答被采纳积分+3

2回答

Michael_PK 2017-07-18 19:31:29

你先停再起,你咋知道存在的worker是上一次的,stop后立刻看下

0 回复 有任何疑惑可以回复我~
Michael_PK 2017-07-18 17:13:34

你要注意start-all到底是spark的还是hadoop的,这问题很多人不注意就会遇到

0 回复 有任何疑惑可以回复我~
  • 提问者 OjQuery #1
    是spark的
    回复 有任何疑惑可以回复我~ 2017-07-18 17:16:34
问题已解决,确定采纳
还有疑问,暂不采纳
微信客服

购课补贴
联系客服咨询优惠详情

帮助反馈 APP下载

慕课网APP
您的移动学习伙伴

公众号

扫描二维码
关注慕课网微信公众号