采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
视频中提到Spark可以只有一个客户端节点,却可以让Hadoop集群去计算?不需要每个节点都有Spark的运行环境吗?
spark on yarn模式,不需要安装spark集群,因为spark就是个提交的客户端而已,提交有的作业直接是运行在yarn上的,不管yarn是几个节点,统一通过yarn的资源分配来进行运行spark作业
登录后可查看更多问答,登录/注册
大数据工程师干货课程 带你从入门到实战掌握SparkSQL
1.1k 15
1.1k 14
1.4k 12
1.9k 12
1.4k 11
购课补贴联系客服咨询优惠详情
慕课网APP您的移动学习伙伴
扫描二维码关注慕课网微信公众号