美文网首页
Python机器学习算法入门指南

Python机器学习算法入门指南

作者: 算法进阶 | 来源:发表于2020-02-26 13:34 被阅读0次

    前言

    机器学习 作为人工智能领域的核心组成,是计算机程序学习数据经验以优化自身算法,并产生相应的“智能化的”建议与决策的过程。

    一个经典的机器学习的定义是:

    A computer program is said to learn from experience E with respect to some class of tasks T and performance measure P, if its performance at tasks in T, as measured by P, improves with experience E.

    1 机器学习概论

    机器学习是关于计算机基于数据分布,学习构建出概率统计模型,并运用模型对数据进行分析与预测的方法。按照学习数据分布的方式的不同,主要可以分为监督学习和非监督学习

    image

    1.1 监督学习

    从有标注的数据(x为变量特征空间, y为标签)中,通过选择的模型及确定的学习策略,再用合适算法计算后学习到最优模型,并用模型预测的过程。

    按照模型预测结果Y的取值有限或者无限的,可再进一步分为分类模型或者回归模型

    image

    1.2 非监督学习:

    从无标注的数据(x为变量特征空间),通过选择的模型及确定的学习策略,再用合适算法计算后学习到最优模型,并用模型发现数据的统计规律或者内在结构。

    按照应用场景,可以分为聚类,降维和关联分析等模型。

    image

    2 机器学习建模流程

    image

    2.1 明确业务问题

    明确业务问题是机器学习的先决条件,这里需要抽象出现实业务问题的解决方案:需要学习什么样的数据作为输入,目标是得到什么样的模型做决策作为输出。

    (如:一个简单的新闻分类问题的场景,就是学习已有的新闻及其类别标签数据,得到一个文本分类模型,通过模型对每天新的新闻做类别预测,以归类到每个新闻频道。)

    image

    2.2 数据选择:收集及输入数据

    数据决定了机器学习结果的上限,而算法只是尽可能逼近这个上限。
    意味着数据的质量决定了模型的最终效果,在实际的工业应用中,算法通常占了很小的一部分,大部分工程师的工作都是在找数据、提炼数据、分析数据。数据选择需要关注的是:

    ① 数据的代表性:代表性差的数据,会导致模型拟合效果差;

    ② 数据时间范围:监督学习的特征变量X及标签Y如与时间先后有关,则需要明确数据时间窗口,否则可能会导致数据泄漏,即存在和利用因果颠倒的特征变量的现象。(如预测明天会不会下雨,但是训练数据引入明天温湿度情况);

    ③ 数据业务范围:明确与任务相关的数据表范围,避免缺失代表性数据或引入大量无关数据作为噪音;

    2.3 特征工程:数据预处理及特征提取

    特征工程就是将原始数据加工转化为模型可用的特征,按技术手段一般可分为:

    数据预处理:缺失值/异常值处理,数据离散化,数据标准化等;

    特征提取:特征表示,特征衍生,特征选择,特征降维等;

    2.3.1 数据预处理

    • 异常值处理

      收集的数据由于人为或者自然因素可能引入了异常值(噪音),这会对模型学习进行干扰。


      image

      通常需要处理人为引起的异常值,通过业务/技术手段(如3σ准则)判定异常值,再由(python、正则式匹配)等方式筛选异常的信息,并结合业务情况删除或者替换数值。

    • 缺失值处理

      数据缺失的部分,通过结合业务进行填充数值、不做处理或者删除。
      根据缺失率情况及处理方式分为以下情况:

      ① 缺失率较高,并结合业务可以直接删除该特征变量。经验上可以新增一个bool类型的变量特征记录该字段的缺失情况,缺失记为1,非缺失记为0;

      ② 缺失率较低,结合业务可使用一些缺失值填充手段,如pandas的fillna方法、训练随机森林模型预测缺失值填充;

      ③ 不做处理:部分模型如随机森林、xgboost、lightgbm能够处理数据缺失的情况,不需要对缺失数据做任何的处理。

    • 数据离散化

      数据离散化能减小算法的时间和空间开销(不同算法情况不一),并可以使特征更有业务解释性。

      离散化是将连续的数据进行分段,使其变为一段段离散化的区间,分段的原则有等距离、等频率等方法。

    • 数据标准化

      数据各个特征变量的量纲差异很大,可以使用数据标准化消除不同分量量纲差异的影响,加速模型收敛的效率。常用的方法有:

      ① min-max 标准化:

      将数值范围缩放到(0,1),但没有改变数据分布。max为样本最大值,min为样本最小值。

      image

      ② z-score 标准化:

      将数值范围缩放到0附近, 经过处理的数据符合标准正态分布。u是平均值,σ是标准差。

      image

    2.3.2 特征提取

    • 特征表示

      数据需要转换为计算机能够处理的数值形式。如果数据是图片数据需要转换为RGB三维矩阵的表示。

    image

    字符类的数据可以用多维数组表示,有Onehot独热编码表示、word2vetor分布式表示及bert动态编码等;


    image
    • 特征衍生

    基础特征对样本信息的表述有限,可通过特征衍生出新含义的特征进行补充。特征衍生是对现有基础特征的含义进行某种处理(聚合/转换之类),常用方法如:

    ① 结合业务的理解做衍生:
    聚合的方式是指对字段聚合后求平均值、计数、最大值等。比如通过12个月工资可以加工出:平均月工资,薪资最大值 等等;

    转换的方式是指对字段间做加减乘除之类。比如通过12个月工资可以加工出:当月工资收入与支出的比值、差值等等;

    ② 使用特征衍生工具:如Featuretools等;

    • 特征选择

    特征选择筛选出显著特征、摒弃非显著特征。特征选择方法一般分为三类:

    image

    ① 过滤法:按照特征的发散性或者相关性指标对各个特征进行评分后选择,如方差验证、相关系数、IV值、卡方检验及信息增益等方法。

    ② 包装法:每次选择部分特征迭代训练模型,根据模型预测效果评分选择特征的去留。

    ③ 嵌入法:使用某些模型进行训练,得到各个特征的权值系数,根据权值系数从大到小来选择特征,如XGBOOST特征重要性选择特征。

    image
    • 特征降维

    如果特征选择后的特征数目仍太多,这种情形下经常会有数据样本稀疏、距离计算困难的问题(称为 “维数灾难”),可以通过特征降维解决。
    常用的降维方法有:主成分分析法(PCA),
    线性判别分析法(LDA)等。


    image

    2.4 模型训练

    模型训练是选择模型学习数据分布的过程。这过程还需要依据训练结果调整算法的(超)参数,使得结果变得更加优良。

    • 2.4.1 数据集划分

      训练模型前,一般会把数据集分为训练集和测试集,并可再对训练集再细分为训练集和验证集,从而对模型的泛化能力进行评估。

      ① 训练集(training set):用于运行学习算法。

      ② 开发验证集(development set)用于调整参数,选择特征以及对算法其它优化。常用的验证方式有交叉验证Cross-validation,留一法等;

      ③ 测试集(test set)用于评估算法的性能,但不会据此改变学习算法或参数。

    ![image](https://img.haomeiwen.com/i11682271/b6f74a8a5f9f0bab.image?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240)
    
    • 2.4.2 模型选择

      常见的机器学习算法如下:

      image
    模型选择取决于数据情况和预测目标。可以训练多个模型,根据实际的效果选择表现较好的模型或者模型融合。
    
    模型选择
    • 2.4.3 模型训练

      训练过程可以通过调参进行优化,调参的过程是一种基于数据集、模型和训练过程细节的实证过程。
      超参数优化需要基于对算法的原理的理解和经验,此外还有自动调参技术:网格搜索、随机搜索及贝叶斯优化等。

    2.5 模型评估

    模型评估的标准:模型学习的目的使学到的模型对新数据能有很好的预测能力(泛化能力)。现实中通常由训练误差及测试误差评估模型的训练数据学习程度及泛化能力。

    • 2.5.1 评估指标

      ① 评估分类模型:
      常用的评估标准有查准率P、查全率R、两者调和平均F1-score 等,并由混淆矩阵的统计相应的个数计算出数值:

    ![混淆矩阵](https://img.haomeiwen.com/i11682271/1c980f0fd3b1abb4.image?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240)
    
    
    查准率是指分类器分类正确的正样本(TP)的个数占该分类器所有预测为正样本个数(TP+FP)的比例;
    
    查全率是指分类器分类正确的正样本个数(TP)占所有的正样本个数(TP+FN)的比例。
    
    F1-score是查准率P、查全率R的调和平均:
    ![image](https://img.haomeiwen.com/i11682271/6e6b6fc8ccdae032.image?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240)
    
    ② 评估回归模型:
    常用的评估指标有RMSE均方根误差 等。反馈的是预测数值与实际值的拟合情况。
    
    ![image](https://img.haomeiwen.com/i11682271/11312faa3c4d504f.image?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240)
    
    ③ 评估聚类模型:可分为两类方式,一类将聚类结果与某个“参考模型”的结果进行比较,称为“外部指标”(external index):如兰德指数,FM指数 等;
    另一类是直接考察聚类结果而不利用任何参考模型,称为“内部指标”(internal index):如紧凑度、分离度 等。
    
    • 2.5.2 模型评估及优化
    ![image](https://img.haomeiwen.com/i11682271/1c1c25bb89fe0a45.image?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240)
    
    
    根据训练集及测试集的指标表现,分析原因并对模型进行优化,常用的方法有:
    
    ![image](https://img.haomeiwen.com/i11682271/5744d212b0368d27.image?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240)
    

    2.6 模型决策

    决策是机器学习最终目的,对模型预测信息加以分析解释,并应用于实际的工作领域。

    需要注意的是工程上是结果导向,模型在线上运行的效果直接决定模型的成败,不仅仅包括其准确程度、误差等情况,还包括其运行的速度(时间复杂度)、资源消耗程度(空间复杂度)、稳定性的综合考虑。

    3 Python实战

    
    # ### 这是个简单demo:使用iris植物的数据,训练iris分类模型,通过模型预测识别iris品种
    
    
    # 导入模块
    import pandas as pd
    from sklearn.datasets import load_iris
    
    # 加载数据集 
    data = load_iris()
    df = pd.DataFrame(data.data, columns=data.feature_names)
    df['class'] = data.target
    df.head()
    
    # pandas_profiling是一个超实用的数据分析模块,使用它可快速数据缺失情况、数据分布、相关情况
    import pandas_profiling
    
    df.profile_report(title='iris')
    
    # 特征工程 
    # (略)该数据集质量较高,不可以不用数据清洗,缺失值填充等
    
    # 划分目标标签y、特征x
    y = df['class']
    x = df.drop('class', axis=1)
    
    #划分训练集,测试集
    from sklearn.model_selection import train_test_split
    
    train_x, test_x, train_y, test_y = train_test_split(x, y)
    
    
    # 模型训练
    from xgboost import XGBClassifier
    
    # 选择XGBoost模型 及 调试参数
    xgb = XGBClassifier(base_score=0.5, booster='gbtree', colsample_bylevel=1,
                  colsample_bynode=1, colsample_bytree=1, gamma=0,
                  learning_rate=0.1, max_delta_step=0, max_depth=1,
                  min_child_weight=1, missing=None, n_estimators=1, n_jobs=1,
                  nthread=None, objective='multi:softprob', random_state=0,
                  reg_alpha=0, reg_lambda=1, scale_pos_weight=1, seed=None,
                  silent=None, subsample=1, verbosity=1)
    
    # 训练模型
    xgb.fit(train_x, train_y)
    
    from sklearn.metrics import precision_score, recall_score, f1_score, accuracy_score, roc_curve, auc
    
    
    def model_metrics(model, x, y, pos_label=2):
        """
        评估函数
        """
        yhat = model.predict(x)
        result = {'accuracy_score':accuracy_score(y, yhat),
                  'f1_score_macro': f1_score(y, yhat, average = "macro"),
                  'precision':precision_score(y, yhat,average="macro"),
                  'recall':recall_score(y, yhat,average="macro")
                 }
        return result
    
    
    # 模型评估结果
    print("TRAIN")
    print(model_metrics(xgb, train_x, train_y))
    
    print("TEST")
    print(model_metrics(xgb, test_x, test_y))
    
    
    # 模型预测
    xgb.predict(test_x)
    
    

    相关文章

      网友评论

          本文标题:Python机器学习算法入门指南

          本文链接:https://www.haomeiwen.com/subject/sbomchtx.html