采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
现在kafka四个分区。flink给了2个tasknode,每个8g。流程就是从kafka消费过来,直接用bucketsink当时写出到s3。中间没任何业务逻辑,每秒只能写出500条大概几百k的数据。。这也太慢了,不知道能从哪方面能优化下呢。
那你需要定位到到底是慢走哪里,是kafka的问题,还是flink消费不行,找到根源才能对症下药
登录后可查看更多问答,登录/注册
入行或转型大数据新姿势,多语言系统化讲解,极速入门Flink
938 18
1.0k 15
1.4k 14
1.3k 13
1.6k 13