采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
Spark streaming同时消费2个kafka主题数据,其分区数量分别为4分区和8分区,先后进行了map,join,reduceByKey操作,在此过程中,Dstream/RDD的分区变化的各种可能情况,以及如何进行计算优化?
这个取决于你的streaming和kafka的对接方式,direct时kafka可以通过提高分区数来达到提高处理的分区数。这个详细的官网是有非常详细的描述
您好,有相应的官网介绍的地址吗,是在spark的官网上,还是kafka的官网上,谢谢。
spark流处理
好的,谢谢老师,非常感谢
登录后可查看更多问答,登录/注册
快速转型大数据:Hadoop,Hive,SparkSQL步步为赢
1.6k 6
1.8k 6
1.9k 1
1.2k 21
1.5k 18