采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
第一次启动要全表扫描,写入kafka,然后捕捉动态变化,再写入kafka,怎么保证现在的源端mysql和kafka topic中的数据保持一致啊,cdc捕捉的是全部日志
扫表的数据到kafka,都是有offset的记录的,知道消费到哪里的
老师可以说一下整体思路吗?我要做的是用flink cdc 。mysql到kafka,目前捕捉到的是binlog日志,kafka topic中整个操作日志
你这架构没问题的呢。基本都是这套路:binlog==>中间件==> kafka ==> flink。 我们后续课程会用canal中间件
登录后可查看更多问答,登录/注册
已经在做大数据,Flink助力轻松提薪;尚未入行,让你弯道超车
1.0k 9
833 7
608 6
535 6
806 5