美文网首页
WisdomOcean task4

WisdomOcean task4

作者: 白鬓少年 | 来源:发表于2021-04-23 01:38 被阅读0次
    task4模型建立

    一、模型训练与预测

    模型训练与预测

    1. 随机森林分类

    from sklearn import datasets
    from sklearn.ensemble import RandomForestClassifier
    from sklearn.model_selection import train_test_split
    from sklearn.metrics import f1_score
    #数据集导入
    iris=datasets.load_iris()
    feature=iris.feature_names
    X = iris.data
    y = iris.target
    #随机森林
    clf=RandomForestClassifier(n_estimators=200)
    train_X,test_X,train_y,test_y = train_test_split(X,y,test_size=0.1,random_state=5)
    clf.fit(train_X,train_y)
    test_pred=clf.predict(test_X)
    
    #特征的重要性查看
    print(str(feature)+'\n'+str(clf.feature_importances_))
    
    #F1-score 用于模型评价
    #如果是二分类问题则选择参数‘binary’
    #如果考虑类别的不平衡性,需要计算类别的加权平均,则使用‘weighted’
    #如果不考虑类别的不平衡性,计算宏平均,则使用‘macro’
    score=f1_score(test_y,test_pred,average='macro')
    print("随机森林-macro:",score)
    score=f1_score(test_y,test_pred,average='weighted')
    print("随机森林-weighted:",score)
    

    2. lightGBM模型

    import lightgbm as lgb
    from sklearn import datasets
    from sklearn.model_selection import train_test_split
    import numpy as np
    from sklearn.metrics import roc_auc_score, accuracy_score
    import matplotlib.pyplot as plt
    
    # 加载数据
    iris = datasets.load_iris()
    # 划分训练集和测试集
    X_train, X_test, y_train, y_test = train_test_split(iris.data, iris.target, test_size=0.3)
    # 转换为Dataset数据格式
    train_data = lgb.Dataset(X_train, label=y_train)
    validation_data = lgb.Dataset(X_test, label=y_test)
    # 参数
    results = {}
    params = {
        'learning_rate': 0.1,
        'lambda_l1': 0.1,
        'lambda_l2': 0.9,
        'max_depth': 1,
        'objective': 'multiclass',  # 目标函数
        'num_class': 3,
        'verbose': -1 
    }
    # 模型训练
    gbm = lgb.train(params, train_data, valid_sets=(validation_data,train_data),valid_names=('validate','train'),evals_result= results)
    # 模型预测
    y_pred_test = gbm.predict(X_test)
    y_pred_data = gbm.predict(X_train)
    y_pred_data = [list(x).index(max(x)) for x in y_pred_data]
    y_pred_test = [list(x).index(max(x)) for x in y_pred_test]
    # 模型评估
    print(accuracy_score(y_test, y_pred_test))
    print('训练集',f1_score(y_train, y_pred_data,average='macro'))
    print('验证集',f1_score(y_test, y_pred_test,average='macro'))
    

    3. xgboost模型

    from sklearn.datasets import load_iris
    import xgboost as xgb
    from xgboost import plot_importance
    from matplotlib import pyplot as plt
    from sklearn.model_selection import train_test_split
    from sklearn.metrics import f1_score   # 准确率
    # 加载样本数据集
    iris = load_iris()
    X,y = iris.data,iris.target
    X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=1234565) # 数据集分割
    # 算法参数
    params = {
        'booster': 'gbtree',
        'objective': 'multi:softmax',
        'eval_metric':'mlogloss',
        'num_class': 3,
        'gamma': 0.1,
        'max_depth': 6,
        'lambda': 2,
        'subsample': 0.7,
        'colsample_bytree': 0.75,
        'min_child_weight': 3,
        'eta': 0.1,
        'seed': 1,
        'nthread': 4,
    }
    
    # plst = params.items()
    
    train_data = xgb.DMatrix(X_train, y_train) # 生成数据集格式
    num_rounds = 500
    model = xgb.train(params, train_data) # xgboost模型训练
    
    # 对测试集进行预测
    dtest = xgb.DMatrix(X_test)
    y_pred = model.predict(dtest)
    
    # 计算准确率
    F1_score = f1_score(y_test,y_pred,average='macro')
    print("F1_score: %.2f%%" % (F1_score*100.0))
    
    # 显示重要特征
    plot_importance(model)
    plt.show()
    

    二、交叉验证

    1.简单交叉验证(cross validation)

    简单交叉验证是将原始数据分为两组,一组作为训练集,另一组作为验证集,利用训练集训练分类器,然后利用验证集验证模型,将最后的分类准确率作为此分类器的性能指标。通常是划分30%的数据作为测试数据

    from sklearn.model_selection import train_test_split
    from sklearn import datasets
    #数据集导入
    iris=datasets.load_iris()
    feature=iris.feature_names
    X = iris.data
    y = iris.target
    X_train,X_test,y_train,y_test=train_test_split(X,y,test_size=0.4,random_state=0)
    

    2. K折交叉验证(K-Fold cross validation)

    K折交叉验证是将原始数据分为K组,然后将每个子集数据分别做一次验证集,其余的K-1组子集作为训练集,这样就会得到K个模型,将K个模型最终的验证集的分类准确率取平均值,作为K折交叉验证分类器的性能指标。通常设置为K为5或者10.

    from sklearn.model_selection import KFold
    folds = KFold(n_splits=10, shuffle=is_shuffle)
    

    3.留一法交叉验证(Leave-One-Out Cross Validation,LOO-CV)

    留一法交叉验证是指每个训练集由除一个样本之外的其余样本组成,留下的一个样本组成检验集。这样对于N个样本的数据集,可以组成N个不同的训练集和N个不同的验证集,因此该方法会得到N个模型,用N个模型最终的验证集的分类准确率的平均是作为分类器的性能指标。

    from sklearn.model_selection import LeaveOneOut
    loo=LeaveOneOut()
    

    4.留P法交叉验证

    该方法与留一法类似,是从完整数据集中删除P个样本,产生所有可能的训练集和验证集。

    from sklearn.model_selection import LeavePOut
    lpo=LeavePOut(p=5)
    

    三、模型调参

    调参就是对模型的参数进行调整,找到使模型最优的超参数,调参的目标就是尽可能达到整体模型的最优

    1.网格搜索

    网格搜索就是一种穷举搜索,在所有候选的参数选择中通过循环遍历去在所有候选参数中寻找表现最好的结果。

    2.学习曲线

    学习曲线是在训练集大小不同时通过绘制模型训练集和交叉验证集上的准确率来观察模型在新数据上的表现,进而来判断模型是否方差偏高或偏差过高,以及增大训练集是否可以减小过拟合。

    img
    • 当训练集和测试集的误差收敛但却很高时,为高偏差。

      左上角的偏差很高,训练集和验证集的准确率都很低,很可能是欠拟合。 我们可以增加模型参数,比如,构建更多的特征,减小正则项。 此时通过增加数据量是不起作用的。

    • 当训练集和测试集的误差之间有大的差距时,为高方差。

      当训练集的准确率比其他独立数据集上的测试结果的准确率要高时,一般都是过拟合。 右上角方差很高,训练集和验证集的准确率相差太多,应该是过拟合。 我们可以增大训练集,降低模型复杂度,增大正则项,或者通过特征选择减少特征数。 理想情况是是找到偏差和方差都很小的情况,即收敛且误差较小。

    3.验证曲线

    和学习曲线不同,验证曲线的横轴为某个超参数的一系列值,由此比较不同超参数设置下的模型准确值。从下图的验证曲线可以看到,随着超参数设置的改变,模型可能会有从欠拟合到合适再到过拟合的过程,进而可以选择一个合适的超参数设置来提高模型的性能。

    相关文章

      网友评论

          本文标题:WisdomOcean task4

          本文链接:https://www.haomeiwen.com/subject/swmqrltx.html