请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

关于Spark运行模式:YARN

视频中提到Spark可以只有一个客户端节点,却可以让Hadoop集群去计算?不需要每个节点都有Spark的运行环境吗?

正在回答

1回答

spark on yarn模式,不需要安装spark集群,因为spark就是个提交的客户端而已,提交有的作业直接是运行在yarn上的,不管yarn是几个节点,统一通过yarn的资源分配来进行运行spark作业

0 回复 有任何疑惑可以回复我~
问题已解决,确定采纳
还有疑问,暂不采纳
意见反馈 帮助中心 APP下载
官方微信