采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
代码和管理后台没有这三个字段:窗口开始时间、结束时间、和持续时长
老师,这个通用的Job感觉是无法通用的,真实业务环境中,采集的各个系统的事件数据格式是无法用同一个通用的方法去转换的,假如我有多个实体类对应不同的数据格式,在kafkaUtil的makeStream方法如何根据配置转换成想要的实体类而不是固定写死的EventPO对象?这快您能讲一下思路或者说说真实系统你们是怎么做的
就是 Flink 从 Source 到 Sink ,代码框架基本是一样的,都是分组,过滤,开窗计算这样子,不同的只是参数,所以就写了个通用 Job ,里面的参数就是读取运营后台对于每个指标计算所配置的参数,例如分组字段,窗口步长等,这样子就能根据不同的指标配置,生成不同的指标计算 Job,这个是写这个通用 Job 的目的
至于你问的 EventPO 对象如何适配不同的数据格式,课程这里确实是写死了,因为课程的事件数据格式只有 1 个,如何解决,
确实课程内容和资料很多地方匹配不上,也是服了。这个算课程的起码要求吧
登录后可查看更多问答,登录/注册
Flink 核心技能实操 + 亿级数据性能调优 进阶大数据开发高手
71 12
249 9
254 7
85 7
226 7