美文网首页
经典分类模型

经典分类模型

作者: 霍尔元件 | 来源:发表于2019-08-01 16:39 被阅读0次

    逻辑回归怎么实现多分类

    • 一个样本只有一个标签

      image

      之后处理一个参数冗余的问题就完事 利用概率和为1

    • 一个样本有多标签

      训练k个二分类器,第i个分类器表示某个样本是否属于第i类,测试的时候,对于每一个类别都给出属于还是不属于该类别。训练的时候需要重新处理标签,对于第i个分类器,将标签重新整理为属于第i类,和不属于第i类。

    SVM中什么时候用线性核什么时候用高斯核?

    线性核、多项式核、高斯核。

    特征维数高选择线性核

    样本数量可观、特征少选择高斯核(非线性核)

    样本数量非常多选择线性核(避免造成庞大的计算量)

    训练集中类别不均衡,哪个参数最不准确?

    准确率。

    ● 为什么高斯核能够拟合无穷维度

    因为将泰勒展开式代入高斯核,将会得到一个无穷维度的映射。

    ● LR和SVM 区别

    1)LR是参数模型,SVM是非参数模型。2)从目标函数来看,区别在于逻辑回归采用的是logistical loss,SVM采用的是hinge loss.这两个损失函数的目的都是增加对分类影响较大的数据点的权重,减少与分类关系较小的数据点的权重。3)SVM的处理方法是只考虑support vectors,也就是和分类最相关的少数点,去学习分类器。而逻辑回归通过非线性映射,大大减小了离分类平面较远的点的权重,相对提升了与分类最相关的数据点的权重。4)逻辑回归相对来说模型更简单,好理解,特别是大规模线性分类时比较方便。而SVM的理解和优化相对来说复杂一些,SVM转化为对偶问题后,分类只需要计算与少数几个支持向量的距离,这个在进行复杂核函数计算时优势很明显,能够大大简化模型和计算。5)logic 能做的 svm能做,但可能在准确率上有问题,svm能做的logic有的做不了。

    如果给你一些数据集,你会如何分类(我是分情况答的,从数据的大小,特征,是否有缺失,分情况分别答的);

    假如特征维数较多,可以选择SVM模型,如果样本数量较大可以选择LR模型,但是LR模型需要进行数据预处理;假如缺失值较多可以选择决策树。选定完模型后,相应的目标函数就确定了。还可以在考虑正负样例比比,通过上下集采样平衡正负样例比。

    如果数据有问题,怎么处理;

    ID3决策树优先选择信息增益大的属性来对样本进行划分,但是这样的分裂节点方法有一个很大的缺点,当一个属性可取值数目较多时,可能在这个属性对应值下的样本只有一个或者很少个,此时它的信息增益将很高,ID3会认为这个属性很适合划分,但实际情况下叫多属性的取值会使模型的泛化能力较差,所以C4.5不采用信息增益作为划分依据,而是采用信息增益率作为划分依据。但是仍不能完全解决以上问题,而是有所改善,这个时候引入了CART树,它使用gini系数作为节点的分裂依据。

    ● ID3,C4.5和CART三种决策树的区别

    ID3 C4.5 CART
    特征选择 信息增益 信息增益比 基尼指数
    连续离散 离散 都可以 都可以
    任务 分类 分类 分类+回归
    缺失值 敏感
    二叉树 多叉树 多叉树 二叉树
    特征复用 不可以 不可以 可以

    C4.5对于缺失值的处理

    • 特征选择前
      • 将没有特征值的数据视为特征取值为None的一类,跟其他有特征取值的样本一同计算信息增益比
    • 特征选择后
      • 将确实特征的样本划分到每一个分支,这时候需要将一个样本劈开,按照各个分支的样本数分配权重。比如缺失特征A的样本a之前权重为1,特征A有3个特征值A1,A2,A3。 3个特征值对应的无缺失A特征的样本个数为2,3,4.则a同时划分入A1,A2,A3。对应权重调节为2/9,3/9, 4/9。

    C4.5处理连续特征

    基本思想就是连续特征离散化。现将特征排序,m个样本的连续特征A有m个,从小到大排列为a1,a2,...,am,则C4.5取相邻两样本值的平均数,一共取得m-1个划分点,其中第i个划分点T_i表示为T_i =\frac{a_i+a_{i+1}}{2}

    要注意的是,与离散属性不同的是,如果当前节点为连续属性,则该属性后面还可以参与子节点的产生选择过程。

    相关文章

      网友评论

          本文标题:经典分类模型

          本文链接:https://www.haomeiwen.com/subject/wsrcdctx.html