美文网首页
白客告诉你如何用Python检测信用卡欺诈

白客告诉你如何用Python检测信用卡欺诈

作者: poison_72c3 | 来源:发表于2017-12-19 21:23 被阅读0次

    分享前还是先分享自己的Python学习交流群:308754087群内不定时分享干货,包括2017最新的python企业案例学习资料和零基础入门教程,欢迎初学和进阶中的小伙伴入群学习交流

    原始数据为个人交易记录,但是考虑数据本身的隐私性,已经对原始数据进行了类似PCA的处理,现在已经把特征数据提取好了,接下来的目的就是如何建立模型使得检测的效果达到最好,这里我们虽然不需要对数据做特征提取的操作,但是面对的挑战还是蛮大的。

    import pandas as pd

    import matplotlib.pyplot as plt

    import numpy as np

    from sklearn.cross_validation import train_test_split

    from sklearn.linear_model import LogisticRegression

    from sklearn.cross_validation import KFold, cross_val_score

    from sklearn.metrics import confusion_matrix,recall_score,classification_report

    数据分析与建模可不是体力活,时间就是金钱我的朋友(魔兽玩家都懂的!)如果你用Python来把玩数据,那么这些就是你的核武器啦。简单介绍一下这几位朋友!

    Numpy-科学计算库 主要用来做矩阵运算,什么?你不知道哪里会用到矩阵,那么这样想吧,咱们的数据就是行(样本)和列(特征)组成的,那么数据本身不就是一个矩阵嘛。

    Pandas-数据分析处理库 很多小伙伴都在说用python处理数据很容易,那么容易在哪呢?其实有了pandas很复杂的操作我们也可以一行代码去解决掉!

    Matplotlib-可视化库 无论是分析还是建模,光靠好记性可不行,很有必要把结果和过程可视化的展示出来。

    Scikit-Learn-机器学习库 非常实用的机器学习算法库,这里面包含了基本你觉得你能用上所有机器学习算法啦。但还远不止如此,还有很多预处理和评估的模块等你来挖掘的!

    data = pd.read_csv("creditcard.csv")

    data.head()

    看见木有!用pandas读取数据就是这么简单!

    接下来我们核心的目的就是去检测在数据样本中哪些是具有欺诈行为的!

    count_classes = pd.value_counts(data['Class'], sort = True).sort_index()

    count_classes.plot(kind = 'bar')

    plt.title("Fraud class histogram")

    plt.xlabel("Class")

    plt.ylabel("Frequency"

    千万不要着急去用机器学习算法建模做这个分类问题。首先我们来观察一下数据的分布情况,在数据样本中有明确的label列指定了class为0代表正常情况,class为1代表发生了欺诈行为的样本。从上图中可以看出来。。。等等,你不是说有两种情况吗,为啥图上只有class为0的样本啊?再仔细看看,纳尼。。。class为1的并不是木有,而是太少了,少到基本看不出来了,那么此时我们面对一个新的挑战,样本极度不均衡,接下来我们首先要解决这个问题,这个很常见也是很头疼的问题。

    这里我们提出两种解决方案 也是数据分析中最常用的两种方法,下采样和过采样!

    先挑个软柿子捏,下采样比较简单实现,咱们就先搞定第一种方案!下采样的意思就是说,不是两类数据不均衡吗,那我让你们同样少(也就是1有多少个 0就消减成多少个),这样不就均衡了吗。

    不同C参数对应的最终模型效果:

    C parameter: 0.01

    Iteration 1 : recall score = 0.958904109589

    Iteration 2 : recall score = 0.917808219178

    Iteration 3 : recall score = 1.0

    Iteration 4 : recall score = 0.972972972973

    Iteration 5 : recall score = 0.954545454545

    Mean recall score 0.960846151257

    C parameter: 0.1

    Iteration 1 : recall score = 0.835616438356

    Iteration 2 : recall score = 0.86301369863

    Iteration 3 : recall score = 0.915254237288

    Iteration 4 : recall score = 0.932432432432

    Iteration 5 : recall score = 0.878787878788

    Mean recall score 0.885020937099

    C parameter: 1

    Iteration 1 : recall score = 0.835616438356

    Iteration 2 : recall score = 0.86301369863

    Iteration 3 : recall score = 0.966101694915

    Iteration 4 : recall score = 0.945945945946

    Iteration 5 : recall score = 0.893939393939

    Mean recall score 0.900923434357

    C parameter: 10

    Iteration 1 : recall score = 0.849315068493

    Iteration 2 : recall score = 0.86301369863

    Iteration 3 : recall score = 0.966101694915

    Iteration 4 : recall score = 0.959459459459

    Iteration 5 : recall score = 0.893939393939

    Mean recall score 0.906365863087

    C parameter: 100

    Iteration 1 : recall score = 0.86301369863

    Iteration 2 : recall score = 0.86301369863

    Iteration 3 : recall score = 0.966101694915

    Iteration 4 : recall score = 0.959459459459

    Iteration 5 : recall score = 0.893939393939

    Mean recall score 0.909105589115

    Best model to choose from cross validation is with C parameter = 0.01

    同样的道理,这里我们采用recall来计算模型的好坏,也就是说那些异常的样本我们的检测到了多少,这也是咱们最初的目的!这里通常用混淆矩阵来展示。

    这个图就非常漂亮了!(并不是说画的好而是展示的很直接)从图中可以清晰的看到原始数据中样本的分布以及我们的模型的预测结果,那么recall是怎么算出来的呢?就是用我们的检测到的个数(137)去除以总共异常样本的个数(10+137),用这个数值来去评估我们的模型。利用混淆矩阵我们可以很直观的考察模型的精度以及recall,也是非常推荐大家在评估模型的时候不妨把这个图亮出来可以帮助咱们很直观的看清楚现在模型的效果以及存在的问题。

    这可还木有完事,我们刚才只是在下采样的数据集中去进行测试的,那么这份测试还不能完全可信,因为它并不是原始的测试集,我们需要在原始的,大量的测试集中再次去衡量当前模型的效果。可以看到效果其实还不错,但是哪块有些问题呢,是不是我们误杀了很多呀,有些样本并不是异常的,但是并我们错误的当成了异常的,这个现象其实就是下采样策略本身的一个缺陷。

    对于逻辑回归算法来说,我们还可以指定这样一个阈值,也就是说最终结果的概率是大于多少我们把它当成是正或者负样本。不用的阈值会对结果产生很大的影响。

    上图中我们可以看到不用的阈值产生的影响还是蛮大的,阈值较小,意味着我们的模型非常严格宁肯错杀也不肯放过,这样会使得绝大多数样本都被当成了异常的样本,recall很高,精度稍低 当阈值较大的时候我们的模型就稍微宽松些啦,这个时候会导致recall很低,精度稍高,综上当我们使用逻辑回归算法的时候,还需要根据实际的应用场景来选择一个最恰当的阈值!

    我们继续唠一下过采样策略,跟下采样相反,现在咱们的策略是要让class为0和1的样本一样多,也就是我们需要去进行数据的生成啦。

    (1)对于少数类中每一个样本x,以欧氏距离为标准计算它到少数类样本集中所有样本的距离,得到其k近邻。

    (2)根据样本不平衡比例设置一个采样比例以确定采样倍率N,对于每一个少数类样本x,从其k近邻中随机选择若干个样本,假设选择的近邻为xn。

    (3)对于每一个随机选出的近邻xn,分别与原样本按照如下的公式构建新的样本。

    SMOTE算法是用的非常广泛的数据生成策略,流程可以参考上图,还是非常简单的,下面我们使用现成的库来帮助我们完成过采样数据生成策略。

    很简单的几步操作我们就完成过采样策略,那么现在正负样本就是一样多的啦,都有那么20多W个,现在我们再通过混淆矩阵来看一下,逻辑回归应用于过采样样本的效果。数据增强的应用面已经非常广了,对于很多机器学习或者深度学习问题,这已经成为了一个常规套路啦!

    我们对比一下下采样和过采样的效果,可以说recall的效果都不错,都可以检测到异常样本,但是下采样是不是误杀的比较少呀,所以如果我们可以进行数据生成,那么在处理样本数据不均衡的情况下,过采样是一个可以尝试的方案!

    文章来源:

    如有侵权,请联系小编删除文章

    相关文章

      网友评论

          本文标题:白客告诉你如何用Python检测信用卡欺诈

          本文链接:https://www.haomeiwen.com/subject/usoiwxtx.html