美文网首页
啦啦啦啦

啦啦啦啦

作者: 馬走日 | 来源:发表于2018-06-01 15:44 被阅读11次

    标准化归一化的目的:让各个特征的重要性一致,减少各个特征取值范围不同造成的影响。

    集成学习:

    * Bagging:将训练集随机采样成若干子训练集,产生若干基模型

    >基模型:强模型(低偏差高方差)、训练目标:关注方差,专注于增强模型的泛化能力。

    * Boosting:不断改变样本权重构建若干训练集,产生若干基模型

    >基模型:弱模型(高偏差低方差)、训练目标:关注偏差

    * Stacking:第一层(将训练好的基模型对训练集和测试集进行预测,产生新的数据集)

                        第二层(基于新的数据集,再次训练模型产生最终的预测结果)

    >基模型:强模型(低偏差高方差)

    模型的偏差:训练出来的模型在训练集上的准确度。

    模型的方差:模型泛化能力的大小(源头:数据抽样的随机性带来了模型的随机性)

    相关文章

      网友评论

          本文标题:啦啦啦啦

          本文链接:https://www.haomeiwen.com/subject/phdijftx.html