请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

server模式Cache表的生命周期

—0623更新—
老师关于这一节我想追加一个问题,就是 既然大部分场景都会用cs架构,那为什么spark做这么多例行模式呢?(或者说例行模式有什么应用场景吗?)

—原问题—
老师好,
听到您视频中的第4点的Cache表,我看了下官网(https://spark.apache.org/docs/latest/sql-ref-syntax-aux-cache-cache-table.html) ,不过上面并没有写对Cache生命周期的管理(以及可能的优先级和swap机制),想简单问一下这一块的大致机制是怎样的啊?

正在回答 回答被采纳积分+3

1回答

Michael_PK 2022-06-23 23:16:41

1)例行作业指的是每次都是通过spark-submit进行作业的提交,比如生产上跑 yarn 或者k8s,那么每次作业提交都会去申请资源,这里是需要一些时间的,当然,对于普通的批处理作业是没问题的。但是我司就遇到过要求离线作业的sla非常高,所以每次spark-submit提交就达不到sla的要求

2)server模式值得是启动一个常驻服务,资源都申请好,每次作业上去就省略了申请资源的时间

0 回复 有任何疑惑可以回复我~
  • 提问者 慕少7351152 #1
    嗯嗯了解了,所以我的理解是如果spark作业密集度低就不用使用server一直跑占用资源吧
    回复 有任何疑惑可以回复我~ 2022-06-24 16:23:03
  • Michael_PK 回复 提问者 慕少7351152 #2
    你的理解对的。server模式是共享资源用的
    回复 有任何疑惑可以回复我~ 2022-06-27 00:07:43
问题已解决,确定采纳
还有疑问,暂不采纳
意见反馈 帮助中心 APP下载
官方微信