标准化归一化的目的:让各个特征的重要性一致,减少各个特征取值范围不同造成的影响。
集成学习:
* Bagging:将训练集随机采样成若干子训练集,产生若干基模型
>基模型:强模型(低偏差高方差)、训练目标:关注方差,专注于增强模型的泛化能力。
* Boosting:不断改变样本权重构建若干训练集,产生若干基模型
>基模型:弱模型(高偏差低方差)、训练目标:关注偏差
* Stacking:第一层(将训练好的基模型对训练集和测试集进行预测,产生新的数据集)
第二层(基于新的数据集,再次训练模型产生最终的预测结果)
>基模型:强模型(低偏差高方差)
模型的偏差:训练出来的模型在训练集上的准确度。
模型的方差:模型泛化能力的大小(源头:数据抽样的随机性带来了模型的随机性)
网友评论