美文网首页
集成学习中的投票分类器

集成学习中的投票分类器

作者: 刘小白DOER | 来源:发表于2022-01-25 23:21 被阅读0次

    在选择一个模型进行训练时后,如何判断模型的优劣及模型的性能呢?一般可以从一下几个方面进行优化:

1、研究学习曲线,判断过拟合或者欠拟合并作出调整

2、调节模型权重参数,调整特征权重和特征组合

3、bad-case分析,错误例子挖掘

4、模型融合,取长补短

    模型融合综合个体学习器的优势,能降低预测误差、优化整体模型性能。而且个体学习器的准确性越高、多样性越大,模型融合的提升效果越好。

    voting投票机制分为软投票和硬投票,采用少数服从多数的思路。软投票优于硬投票,增加了设置权重的功能。

    下面是测试案例,使用make_moons数据集:

1、调用sklearn的VotingClassifier来完成硬投票hard,LogisticRegression分数为0.864,RandomForestClassifier分数为0.896,SVC 分数为0.896,hard VotingClassifier分数为0.912。

2、调用sklearn的VotingClassifier来完成软投票soft,soft VotingClassifier分数为0.92比硬投票稍高。

3、再使用高级的机器学习的扩展库mlxtend来测试iris_data。

    调用扩展库的投票分类器EnsembleVoteClassifier的软投票,设置权重,画出决策边界。

    

相关文章

  • 基于sklearn的集成分类器

    理论 集成模型 集成分类器模型是综合考虑多种机器学习模型的训练结果,做出分类决策的分类器模型 投票式:平行训练多种...

  • 集成学习中的投票分类器

    在选择一个模型进行训练时后,如何判断模型的优劣及模型的性能呢?一般可以从一下几个方面进行优化: 1、研究学习曲...

  • 集成学习之Bagging

    集成学习之Bagging Bagging通过并行化的生成若干个基学习器,然后通过投票(分类)或平均(回归)来对这些...

  • 【算法】集成学习:AdaBoost

    集成学习 集成学习通过构建并合并多个学习器来完成学习任务,有时也被称为多分类器系统。如果在集成学习中我们使用的学习...

  • 【机器学习】xgboost原理

    1.集成学习 所谓集成学习,是指构建多个分类器(弱分类器)对数据集进行预测,然后用某种策略将多个分类器预测的结果集...

  • Boosting原理

    集成学习 集成学习是什么?集成学习通过训练多个分类器,然后将其组合起来,从而达到更好的预测性能,提高分类器的泛化能...

  • Adaboost,GBDT,Xgboost

    集成学习就是构建多个弱分类器对数据集进行预测,然后利用某种策略将多个分类器的结果集成起来,作为最终的预测结果。集成...

  • 集成学习 —Bagging 、Boosting-周志华

    集成学习:构建多个分类器(弱分类器),用某种策略将多个结果集成起来,作为最终结果。 要求:每个弱分类器具备一定的“...

  • 集成学习算法

    什么是集成学习算法?集成学习算法就是将多个弱分类器(回归器)合并,组合成一个新的学习器 2.为什么用集成学习算法?...

  • ML-集成学习策略

    集成学习(Ensemble Learning) 指的是一种学习方法,它的思想在于通过采用投票的方式综合多个分类回归...

网友评论

      本文标题:集成学习中的投票分类器

      本文链接:https://www.haomeiwen.com/subject/cweghrtx.html