美文网首页
sofasofa——交通事故文档分析

sofasofa——交通事故文档分析

作者: andyham | 来源:发表于2020-08-12 16:39 被阅读0次

解决的问题是在交通摩擦(事故)发生后,理赔员会前往现场勘察、采集信息,这些信息往往影响着车主是否能够得到保险公司的理赔。训练集数据包括理赔人员在现场对该事故方采集的36条信息,信息已经被编码,以及该事故方最终是否获得理赔。我们的任务是根据这36条信息预测该事故方没有被理赔的概率。
二元分类的比赛结果如果不是太差基本上三步:特征工程、选好模型(大杀器)、调整好参数。
上传预测结果,平台计算AUC。一般结果在0.5(等于随机只选二元中的一个结果)到1(全对)之间。

本文最终处理结果为PR-AUC:0.8611xx,目前排名进前10。
在试验中比较了几种方法(当然也包括了比赛提供的标杆方法)
随机森林(标杆)的提交结果为0.850898。
lightgbm模型的提交结果为 0.86035。
xgboost模型的提交结果为 0.86115。
以下介绍以xgboost为例。

温馨提示:先用清华镜像安装imblearn 包

pip install imblearn -i https://pypi.tuna.tsinghua.edu.cn/simple

1.特征工程

方法1:特征工程通常需要考虑有没有缺失值、相关性(isnull()、corr())等问题。相关性可以输出入下图的效果。
Q1代表36个问题中第一个,一共有36个。


q1的相关性

然后再特征中移除这些方差超过一定阈值的,可能不是每个问题都相关。

    if Feature_selection == True:  # http://bluewhale.cc/2016-11-25/use-scikit-learn-for-feature-selection.html
        sel = VarianceThreshold(threshold=.09)  # 选择方差大于0.9的特征
        train = sel.fit_transform(train)
        test = sel.fit_transform(test)

移除方差较低的特征后,时间却降低很多。因为许多特征都表现出方差低的情况,移除后剩下为数不多的特征,此时耗时自然下降。

方法2:此外也可以利用遗传算法来对36个问题进行降维处理,流程图如下:


遗传算法降维

思路是数据集有36个特征,所以我们建立一个初始的种群为(30,36)的矩阵,其中染色体则为种群(30,36)矩阵中的其中(1,36),基因则为染色体中的一个特征为一个基因。
对初始种群进行二进制编码,即随机产生一个(30,36)里面为0,1的矩阵,那么一条染色体即为数据集特征的索引,例如其中一条染色体为[0,1,1,1,0,…,0,1,0],通过这条染色体进行索引数据集特征,得到新的一个数据集。将这个数据集切分成训练集和测试集,通过模型对新数据集进行训练和预测,以预测结果的AUC值作为适应度。根据适应度筛选出最优一条染色保存,看是否达到终止条件,没达到再对种群进行选择、交叉、变异,得到新种群进入下一次循环,直到到达终止条件(一般是人为设置,本次训练我设置迭代30次后终止循环),输出最优的一条染色体,即为我们降维的结果。

具体可以参考:https://blog.csdn.net/LDD1764759304/article/details/107721057

2.选好模型

XGBoost的特点:

①使用许多策略去防止过拟合,如:正则化项、Shrinkage and Column Subsampling等。
②目标函数优化利用了损失函数关于待求函数的二阶导数。
③支持并行化,这是XGBoost的闪光点,虽然树与树之间是串行关系,但是同层级节点可并行。具体的对于某个节点,节点内选择最佳分裂点,候选分裂点计算增益用多线程并行。训练速度快。
④添加了对稀疏数据的处理。
⑤交叉验证,early stop,当预测结果已经很好的时候可以提前停止建树,加快训练速度。
⑥支持设置样本权重,该权重体现在一阶导数g和二阶导数h,通过调整权重可以去更加关注一些样本。

具体可以参考:
https://www.cnblogs.com/wj-1314/p/10790197.html
https://www.jianshu.com/p/37c540e02c87

3.调整参数

调参用了gridSearchCV(网格搜索)具体可以参考:
https://blog.csdn.net/weixin_41988628/article/details/83098130
https://www.cnblogs.com/wj-1314/p/10790197.html

def XGB(train_x, train_y):
    """
    XGBClassifier的调参及建立
    Parameters:
        train_x - 训练集变量
        train_y - 训练集类别
    Returns:
        clf - 模型
        best_params - 最优参数
        best_score - 最佳分数
    """
    cv_params = {}
    other_params = {'base_score': 0.5, 'booster': 'gbtree', 'colsample_bylevel': 0.9,
    'colsample_bytree': 0.6, 'gamma': 0.3, 'learning_rate': 0.1,
    'max_delta_step': 0, 'max_depth': 5, 'min_child_weight': 1, 'missing': None,
    'n_estimators': 800, 'n_jobs': -1, 'nthread': 4, 'objective': 'binary:logistic',
    'random_state': 0, 'reg_alpha': 1, 'reg_lambda': 1, 'scale_pos_weight': 1,
    'seed': 27, 'silent': True, 'subsample': 0.9}


    model = XGBClassifier(**other_params)
    clf = GridSearchCV(estimator=model, param_grid=cv_params, scoring='average_precision', verbose=1, n_jobs=-1, cv=3)
    clf.fit(train_x, train_y)

    evalute_result = clf.cv_results_
    # print('每轮迭代运行结果:{0}'.format(evalute_result))
    best_params = clf.best_params_
    best_score = clf.best_score_

    return clf, best_params, best_score

RP-AUC数值为:0.8584(上传到系统会高一些)
耗时:93 秒

相关文章

网友评论

      本文标题:sofasofa——交通事故文档分析

      本文链接:https://www.haomeiwen.com/subject/eijbrktx.html