通过风控项目的学习,从而提高同学的职业能力,包括项目的深度,以及技术的广度,这是整个课程设计的初衷。并以思维导图的形式,展现整个课程章节安排的框架,以及每个章节的重要知识点
风控项目在企业的实际业务中是有很广阔的应用场景,特别是当下羊毛党猖獗,作弊行为防不胜防,对企业的促销推广活动造成很大的损失,针对于优惠券这种薅羊毛集中的场景,企业对于懂得风控技术的人才是有很大需求,这一章是从优惠券风控需求的背景为出发点,针对于优惠券被薅羊毛的环节,初步搭建风控的架构,以及制定风控规则和阈值
继续完善上一章初步形成的风控架构思路,如何将风控规则应用到用户的行为事件,如何计算用户的违规次数,从而触发风控阈值,以及如何在风控引擎运行的过程中,根据实际状况动态的调整风控规则和阈值,这一章主要风控引擎整体的架构图画出来,以及技术栈的选型
风控引擎的核心是Flink,Flink是现在主流企业实时计算的核心大数据组件,对于Flink的掌握是企业大数据人才的核心能力,Flink知识点的深度讲解也是课程对于提高同学技术深度的体现,这一章是从Flink最基础的知识点开始讲解,面对的是没接触过Flink的同学,而接触过Flink的同学也可以从这章节的学习去完善自己的基础知识的一些空白。
这一章是项目的准备工作,主要是把项目的运行环境搭建起来,课程是提供了一键部署的docker环境,运行脚本即可把运行环境搭建起来,第2个是数据表结构的设计思路,课程也提供了详细的数据表结构文档。第3个是单元测试,课程也提供了各个封装方法,各个模块的单元测试文档,
项目中Flink是会大量重复的调用一些查询方法,例如对于数据库的读写,所以对于这些方法的封装是风控项目很重要的部分,这些封装方法重点的一个是Flink自定义Source和Sink读写Redis,另外一个是将mysql读取的数据转化为Flink数据流。
事件接入中心是风控引擎的入口,用户的行为数据是从事件接入中心流入,然后才进入到风控引擎的核心进行规则判断,事件接入中心的核心组件是Flume+Kafka,然后通过Kafka进行数据的分流,是两个方向的分流,分别是ClickHouse和Flink,这一章重点是ClickHouse如何从Kafka拉取数据,以及Flink如何基于滑动窗口计算用户行为的一些简单指标值
这章是课程的第1个核心章节,这章的重点有2个,1是Redis存储采样指标的思路,如何根据Redis的指标存储id,能在任意时间获取到指定时间的指标值,例如最近3个小时的指标值,第2个重点是Flink指标计算的通用框架,这里的Flink指标计算基本涵盖了Flink重要的函数方法
这是课程的第2个重点章节,这一章的重点是Flink读取mysql的风控规则,并将获取的风控规则广播到行为事件流,这里会涉及Flink的一个很重要知识点:Flink的广播流。这一章还有比较重要的知识点是在Flink的行为事件流里,每个行为事件如何匹配上对应的风控规则
这是课程的第3个重点章节,这一章主要讲解一个新的组件:Groovy,风控规则的动态调整会用到Groovy脚本,基本是从0开始讲解Groovy,因为Groovy和Java语法想通,所以掌握Groovy是比较容易的,这章的另一个重要知识点是Flink-cep,同样也是从0开始讲解Flink-cep,所以这章主要是讲解风控规则动态调整所需要的2个组件:Groovy以及Flink-cep
这一章主要是补充如何结合Groovy和Flink-cep,对风控规则进行动态调整,这里会对Flink-Cep做源码的二次开发,除此之外,风控规则的动态调整,除了使用Groovy和Flink-Cep之外,还补充介绍了另外一种动态调整的方法,通过Flink-CDC监听Mysql存储的风控规则,mysql的信息发生更改,会规则更改的部分广播到行为事件流,
选课、学习遇到问题?
扫码添加指导老师 1V1 帮助你!
添加后老师会第一时间解决你的问题