美文网首页
xgboost以及lightgbm的实现

xgboost以及lightgbm的实现

作者: Acapella_Zhang | 来源:发表于2019-11-07 17:39 被阅读0次

    1.导入机器学习常用的包

    # 从sklearn 调入所需要的包
    from sklearn import datasets
    from sklearn.model_selection import train_test_split #数据分隔出训练集和验证集
    import xgboost as xgb
    import numpy as np
    import pandas as pd
    #导入精度和召回
    from sklearn.metrics import precision_score, recall_score
    

    对数据进行类型转换以及切分

    iris = datasets.load_iris()
    data = iris.data
    label = iris.target
    print(pd.DataFrame(data).head())
    print(pd.DataFrame(label).head())
    data1 = pd.DataFrame(data)
    ## 花萼长宽花瓣长宽
    data1.columns = ['sepal_l','sepal_w','petal_l','petal_w']
    print(data1.head())
    label1 =pd.DataFrame(label)
    label1.columns=['label']
    print(label1.head())
    #注意这里data label顺序是一致的,千万别打乱
    
    # 划分训练集和测试集
    train_x, test_x, train_y, test_y = train_test_split(data1.values, label1.values, test_size=0.3, random_state=42)
    print("训练集长度:", len(train_x))
    print("测试集长度:", len(test_x))
    

    2.xgboost 的两种形式的使用方法

    1. 原生态的使用方法
    # 转换为DMatrix数据格式
    # dtrain = xgb.DMatrix(train_x, label=train_y)
    test_data = xgb.DMatrix(test_x, label=test_y)
    # 设置参数
    ###multi:softmax是使用softmax后产生的分类结果,而multi:softprob是输出的概率矩阵。
    
    xgb_params = {
        'eta': 0.3, #学习率
        'silent': True,  # 输出运行讯息
        'objective': 'multi:softprob',  # 使用多分类生成概率矩阵格式'multi:softmax',multi:softprob
        'num_class': 3,  # 共有几个类别
        'max_depth': 3  # 深度
    }
    num_round = 20  # 跑的步数
    
    # 模型训练
    model = xgb.train(xgb_params,xgb.DMatrix(train_x, label=train_y), num_round)
    # 模型预测
    test_pre = model.predict(test_data)
    
    print(test_pre[:5])
    
    # 选择表示最高概率的列
    test_pre_1 = np.asarray([np.argmax(row) for row in test_pre])
    print("test的预测结果:",test_pre_1)
    
    # 模型评估
    print('验证集精准率:',precision_score(test_y, test_pre_1, average='macro')) 
    print('验证集召回率:',recall_score(test_y, test_pre_1, average='macro'))  
    

    这种方法需要将数据转化为DMatrix这种xgb专有的数据类型,其中的train_x等,为DataFrame的数据类型

    1. 简化后的调用方法
    from xgboost import XGBClassifier
    model = XGBClassifier(
            learning_rate=0.01,#学习率
            n_estimators=3000,#步长
            max_depth=4,#深度
            objective='binary:logistic',#此处表明是二分类
            seed=27
        )
    model.fit(train_x,train_y)
    
    # 预测
    #输出预测结果
    test_pre2 = model.predict(test_x)
    print(test_pre2)
    # 模型评估
    print('验证集精准率:',precision_score(test_y, test_pre2, average='macro')) 
    print('验证集召回率:',recall_score(test_y, test_pre2, average='macro'))  
    

    3.lightgbm的两种形式的调用方法

    1. 原生态的调用方法
    # 转换为DMatrix数据格式
    train_data = lgb.Dataset(train_x,train_y)
    test_data = lgb.Dataset(test_x,test_y)
    # 设置参数
    lgb_params = {
       'boosting_type': 'gbdt',  
        'objective': 'multiclass',
        'metric': 'multi_error', 
        'verbose': 1 , # <0 显示致命的, =0 显示错误 (警告), >0 显示信息
         'num_class':3 #lightgbm.basic.LightGBMError: b'Number of classes should be specified and greater than 1 for multiclass training'
        }
    
    # 模型训练
    clf = lgb.train(lgb_params,train_data,num_boost_round =10,
                    valid_sets = [train_data,test_data], #验证集
                    verbose_eval = 10)
    # 模型预测
    test_pre = clf.predict(test_x, num_iteration=clf.best_iteration)
    # print(test_pre)
    print(test_pre[:5])
    
    # 选择表示最高概率的列
    test_pre_1 = np.asarray([np.argmax(row) for row in test_pre])
    print("test的预测结果:",test_pre_1)
    
    # 模型评估
    print('验证集精准率:',precision_score(test_y, test_pre_1, average='macro')) 
    print('验证集召回率:',recall_score(test_y, test_pre_1, average='macro')) 
    
    1. 简化后的调用方法
    import lightgbm as lgb
    #from lightgbm import LGBMClassifier 再进行调用可以得到相同的效果
    
    lgb_params = {
        'learning_rate':0.1,
        'max_bin':150,
        'num_leaves':32,    
        'max_depth':11,  
        'objective':'multiclass',
        'n_estimators':300
    }
    model=lgb.LGBMClassifier(**lgb_params)
    
    model.fit(train_x,train_y)
    # 预测
    #输出预测结果
    test_pre2 = model.predict(test_x)
    print(test_pre2)
    # 模型评估
    print('验证集精准率:',precision_score(test_y, test_pre2, average='macro')) 
    print('验证集召回率:',recall_score(test_y, test_pre2, average='macro'))  
    

    总结:

    • lgb.train中正则化参数为"lambda_l1", "lambda_l1",sklearn中则为'reg_alpha', 'reg_lambda'。
    • 多分类时lgb.train除了'objective':'multiclass',还要指定"num_class":5,而sklearn接口只需要指定'objective':'multiclass'。
    • 迭代次数在sklearn中是'n_estimators':20,在初始化模型时指定

    相关文章

      网友评论

          本文标题:xgboost以及lightgbm的实现

          本文链接:https://www.haomeiwen.com/subject/ffevbctx.html