请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

老师你好,flink cdc捕捉mysql的问题

第一次启动要全表扫描,写入kafka,然后捕捉动态变化,再写入kafka,怎么保证现在的源端mysql和kafka topic中的数据保持一致啊,cdc捕捉的是全部日志

正在回答 回答被采纳积分+3

1回答

Michael_PK 2021-05-17 20:48:08

扫表的数据到kafka,都是有offset的记录的,知道消费到哪里的

0 回复 有任何疑惑可以回复我~
  • 提问者 Link_scnu #1
    老师可以说一下整体思路吗?我要做的是用flink cdc 。mysql到kafka,目前捕捉到的是binlog日志,kafka topic中整个操作日志
    回复 有任何疑惑可以回复我~ 2021-05-17 20:52:37
  • Michael_PK 回复 提问者 Link_scnu #2
    你这架构没问题的呢。基本都是这套路:binlog==>中间件==> kafka ==> flink。 我们后续课程会用canal中间件
    回复 有任何疑惑可以回复我~ 2021-05-17 20:53:29

相似问题

登录后可查看更多问答,登录/注册

问题已解决,确定采纳
还有疑问,暂不采纳
意见反馈 帮助中心 APP下载
官方微信