采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
视频中提到Spark可以只有一个客户端节点,却可以让Hadoop集群去计算?不需要每个节点都有Spark的运行环境吗?
spark on yarn模式,不需要安装spark集群,因为spark就是个提交的客户端而已,提交有的作业直接是运行在yarn上的,不管yarn是几个节点,统一通过yarn的资源分配来进行运行spark作业
登录后可查看更多问答,登录/注册
大数据工程师干货课程 带你从入门到实战掌握SparkSQL
1.0k 15
1.0k 14
1.3k 12
1.7k 12
1.3k 11