虽然bagging算法不是什么新奇的东西,最近温习了一下,发现一个很有意思的结论。
【众多菜的千奇百怪的子模型集成后就会变强大!】
基学习器越弱,越敏感,集成以后会具有更好的精度与泛化表现,因为其具备了多样性与适应性。
我的第一感受是:没有什么是真正的弱,强弱都是相对的。弱到极致,就是强。正所谓孤阳不长,如果不够菜的众多模型集成以后反而没有一堆菜菜模型的集成效果要好。
集成学习仿佛是完成了一轮阴消阳涨。
当我足够弱,弱的千奇百怪,弱的恨铁不成钢,此时的集成才能发挥出最大力量。
弱,又何尝不是一种power?
网友评论