美文网首页
[監督式]Ensemble learning

[監督式]Ensemble learning

作者: RJ阿杰 | 来源:发表于2019-05-16 14:51 被阅读0次

Ensemble learning(集成學習)

二進制通訊時使用vote避免丟失
  • 做法
    假設我們有多個模型(假設3個),每個模型準確率都大於50%(假設80%),而每個模型之間都會存在差異,那麼我們混合模型,分類問題使用每個模型投票(vote)多數作為預測結果、而回歸問題使用平均(avg)作為預測結果,如此一來我們的模型不會比原來最低準確率的模型的差,但有可能讓模型準確率更高。

Bagging(bootstrap aggregating)

  • 做法
    我們有一個樣本池有N個樣本,我們從樣本池中取N'次,每一次的取出的樣本都會放回樣本池中(表示會抽到重複的樣本),然後我們做C次得到C組樣本,我們分別以4個相同或不同的模型進行訓練,然後預測時使用投票或平均作為預測結果,通常會比只使用一個模型時效果還要來的好,模型比較robust。

  • 使用時機
    在模型容易overfitting的時候,使用Bagging。
    因為我們把數據分成多個子集,分別從各個子集訓練後使用投票或平均作為預測結果,所以結果會比較平滑,比較不會overfitting,因為噪聲可能會在投票或平均被忽視掉。

Boosting

  • 使用時機
    在模型underfitting的時候,使用Boosting。

AdaBoost

AdaBoost方法對於噪聲數據和異常數據很敏感。
AdaBoost方法的自適應在於:前一個model分錯的樣本讓判斷錯誤的train data提高權重,被用來訓練下一個model,我們在loss function上乘上一組weight,錯誤的資料有更高的weight,使得錯誤的資料有更高的loss。

\varepsilon代表錯誤率
Z代表樣本數(例如: u_1^1=0.4 , u_1^2=1,Z=1.4 表示共有1.4筆樣本 )

我們第一個(model( f_1 ))錯誤率小於0.5,我們要找一個u_2使得model( f_1 )錯誤率等於0.5,我們使用model( f_2 )來訓練這組新weight的資料(資料本身沒改變我們只是在loss function乘上一個每一筆資料對應的weight),然後model( f_2 )的錯誤率會小於0.5,就這樣可以重複的做下去,直到你想訓練的model數量。


怎麼找u_2呢?
假設我們某一筆資料model( f_1 )預測錯誤,我們將u_1乘上d_1,如果資料model( f_1 )預測正確,我們將u_1除以d_1,而d_1可以經過推倒求出,詳細推導可以參考李宏毅老師的課程


我們訓練完成多個模型要預測時,我們要讓訓練完錯誤率較低的模型他佔比較大的weight,所以預測時我們將每個模型的預測結果乘上然後相加,取預測結果最高的類別、或平均。

Stacking

stacking概念有點類似transfer(遷移學習),我們手上有訓練了幾個不同的模型,然後我們使用這些模型的輸出作為另一個新模型的輸入進行訓練,新模型從現有模型的基礎上再學習如何運用不同模型的輸出差異來增加準確率。

參考:
1234

相关文章

  • [監督式]Ensemble learning

    Ensemble learning(集成學習) 做法假設我們有多個模型(假設3個),每個模型準確率都大於50%(假...

  • [監督式]PLA(Perceptron Learning Alg

    架構圖 為群體參數,為一個函數輸入得到 (資料)為由群體取出的樣本參數加上雜訊,為一個函數,輸入得到(預測) 為推...

  • [監督式]Deep learning(深度學習)

    Deep learning Neural Network 每一層都可以使用不同的,sigmoid、ReLU、lea...

  • [監督式、非監督]KNN、K-mean

    KNN(K Nearest Neighbor) k鄰近算法可以算是一種監督式學習算法,從部分已知的資料來推測未知的...

  • [監督式]GradientDescent介绍

    以Gradient Descent做回归分析,假设一个监督式学习的预测房价例子:以下X为特征参数(feature)...

  • [監督式]分類

    從上篇GradientDescent延伸,這次要處理的是分類問題,從數據特徵中推斷是屬於哪一類別的標籤,例如:從身...

  • 朋友,說好的日更呢

    那天朋友說,決定日更請監督。而我回覆說,寫就對了,無需監督。因為我也知道,鞭長莫及。監督有用嗎?並沒有。 這是第二...

  • Ensemble Learning

    Philosophy: 通过在不同数据子集的学习,得到简单的规则,让后通过合并简单规则,生成最终的规则。 集成学习...

  • Ensemble Learning

    一、概况 将几个弱监督模型组合,得到一个更好更全面的强监督模型,集成学习潜在的思想是即便某一个弱分类器得到了错误的...

  • 李航-第8章提升方法

    Adaboost:adaptive Boosting。 Boosting 是 Ensemble Learning ...

网友评论

      本文标题:[監督式]Ensemble learning

      本文链接:https://www.haomeiwen.com/subject/laivaqtx.html