【讨论题】SparkStreaming对接Kafka的关键点
819
等4人参与

Kafka和Sprak Streaming是实时处理的CP组合,你在项目中是如何保证数据的精准一次消费的?

提示:

  • 从数据源、数据处理、结果输出三个角度理解精准一次消费的概念
  • 自行维护Kafka offsets的意义何在
  • 自行维护Kafka offsets的实现原理及代码实现
  • 分别从Driver和Executor两个角度阐述如何保证统计结果数据输出的幂等性
我的作业
去发布

登录后即可发布作业,立即

全部作业

数据加载中...

微信客服

购课补贴
联系客服咨询优惠详情

帮助反馈 APP下载

慕课网APP
您的移动学习伙伴

公众号

扫描二维码
关注慕课网微信公众号