Random Forest(隨機樹森林)

因為決策樹容易overfitting,因為我們可以不斷分割直到準確率為100%,所以我們使用Random Forest來避免這樣的情況,做法就是使用使用bagging方法。
我們重複採樣數據,然後使用多個層數較少的模型訓練進行投票或平均來決定輸出。


實作
sklearn.ensemble.BaggingClassifier
sklearn.ensemble.BaggingRegressor
sklearn.ensemble.RandomForestClassifier
sklearn.ensemble.RandomForestRegressor
參考:
https://colab.research.google.com/github/jakevdp/PythonDataScienceHandbook/blob/master/notebooks/05.08-Random-Forests.ipynb#scrollTo=F6kKDgs4jyP8
网友评论