请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

Spark streaming同时消费2个kafka主题数据的分区情况及如何进行计算优化的咨询问题

Spark streaming同时消费2个kafka主题数据,其分区数量分别为4分区和8分区,先后进行了map,join,reduceByKey操作,在此过程中,Dstream/RDD的分区变化的各种可能情况,以及如何进行计算优化?

正在回答 回答被采纳积分+3

1回答

Michael_PK 2018-06-02 15:18:49

这个取决于你的streaming和kafka的对接方式,direct时kafka可以通过提高分区数来达到提高处理的分区数。这个详细的官网是有非常详细的描述

0 回复 有任何疑惑可以回复我~
  • 提问者 慕神816625 #1
    您好,有相应的官网介绍的地址吗,是在spark的官网上,还是kafka的官网上,谢谢。
    回复 有任何疑惑可以回复我~ 2018-06-02 19:03:46
  • Michael_PK 回复 提问者 慕神816625 #2
    spark流处理
    回复 有任何疑惑可以回复我~ 2018-06-02 21:17:13
  • 提问者 慕神816625 回复 Michael_PK #3
    好的,谢谢老师,非常感谢
    回复 有任何疑惑可以回复我~ 2018-06-02 21:28:01
问题已解决,确定采纳
还有疑问,暂不采纳
意见反馈 帮助中心 APP下载
官方微信