在构建评分卡模型的工作中,数据的预处理和特征构建工作是至关重要的一步。数据预处理可以有效处理缺失值和异常值,从而增强模型的稳健性。特征构建工作可以从数据中提炼信息,形成具有业务含义的优异特征。
1.评分卡简介
风控场景中的评分卡
o 以风险的形式衡量风险几率的一种手段
o 是对未来一段时间违约、失联的概率预测
o 预测分数有一个明确的(正)区间,评分越高越好
o 数据驱动
o 反欺诈、申请、行为、催收评分卡
非风控场景中的评分卡
o 推荐/营销、流失评分卡
1.1申请评分卡(application scorecard)
用在贷前审核环节,评估放贷后是否会违约的模型。常用特征:个人信息(性别、年龄、工作)、央行征信信息(历史信用记录)、申请行为信息(申请产品类型、申请渠道)、其他辅助信息(电商、运营商信息)。
1.2行为评分卡(behavioral scorecard)
用在贷后监控环节,做早期预警工作。常用特征:贷后还款行为(还款率、额度)、消费行为。通常适用于还款周期长的产品或者循环授信类产品。
1.3催收评分卡(behavioral scorecard)
用在发生逾期后的管理环节,为催收工作提供指导。催收评分卡可细分为预测失联的失联评分卡,预测逾期加重的滚动率评分卡和预测催收后的还款率的还款率评分卡。常用特征:个人信息、贷后的还款行为信息、消费行为信息、联系人信息。
开发步骤:
1-确定场景、人群(样本)定义
2-选取数据,清洗数据,特征工程
3-模型构建,参数估计
4-性能测试
5-验证模型,审批模型
6-模型部署
7-持续线上监控
评分卡常用模型:
1-逻辑回归:优点:简单,稳定,可解释,技术成熟,易于监测和部署;缺点:准确度不高,不能有缺失值,异常值敏感。
2-决策树:优点:易解释,数据质量要求不高,可以处理缺失值;缺点:准确度不高。
3-组合模型(随机森林、gbdt、xgboost等):优点:准确度高,不易过拟合;缺点:不易解释,部署相对困难,计算量大。
2.特征构建
在评分卡模型的开发中,特征构造是极为关键的步骤,其作用是将分散在不同字段中的信息加以组合,从中提炼出有价值的、可用的信息而进行评分卡 模型的开发。
1.部分常用的特征构造方法有:
求和:例如过去一段时间内的每月网购金额的总和
比例:例如申请贷款的月还款本息与月收入的占比
频率:例如过去一段时间内境外消费次数
平均:例如过去一段时间内平均每次信用卡取现额度
2.好的特征需要具备以下优势:
稳定性高:在人群分布稳定,产品营销稳定、宏观经济稳定、监管政策稳定时,特征的分布要稳定
区分度高:未来违约与非违约的人群在特征分布上要有显著区别
差异性大:不能对全部人群或者绝大部分人群有单一的取值
符合业务逻辑:特征与信用风险的关联关系要符合业务逻辑
3.数据质量检验与异常处理
1.数据集中度
在模型开发过程中,数据集中度是常见的问题,即在变量中,某单一数值的占比就占了全部样本的绝大多数。例如在一批训练样本中,学历为本科的样本占了90%,具有极高集中度的字段或者变量,需要按照风险程度进行区分:
(1)“多数值”与“少数值”的坏样本率没有显著差别。由于包含的信息较少,对模型开发没有太大价值,可以直接将字段删除;
(2)“多数值”与“少数值”的坏样本率有显著差别,且“少数值”的坏样本率低于“多数值”的坏样本率,但我们更加关注风险度高的一组,“少数值”并不会带来额外的意义,可以直接将字段删除;
(3)“多数值”与“少数值”的坏样本率有显著差别,且“少数值”的坏样本率高于“多数值”的坏样本率,“少数值”的存在会带来较大的收益,保留字段;
2.数据缺失
数据缺失度是数据质量检验的重要一项,主要有两个检验维度:
(1)字段维度,即某个字段在全部样本上缺失值个数占比;
(2)样本维度,即某条样本在所有字段上缺失值的个数占比;
处理方法:
(1)删除:缺失占比过高
(2)补缺(前提是缺失率不宜过高,否则会引入较大偏差):对于数值型,均值法、回归法;对于类别型,众数法
(3)缺失值作为特殊取值
3.异常值
LR模型对异常值比较敏感,需要具体情况具体处理,有时数值异常大,会有业务意义,比如人行征信查询次数,查询过多意味着资金需求高,风险较大
4.数据含义一致性
实际工作中,原本属于同一含义的记录会有不同的表示形式,比如:“QQ”与“qq”。
(如有不同见解,望不吝赐教!!)
网友评论