信息熵(entropy)
变量的不确定性越大,熵也就越大
ID3算法
有A节点的信息获取量和没有A的信息获取量之间的差
Gain(A)=Info(D)-Info_A(D);
本文标题:机器学习决策树笔记
本文链接:https://www.haomeiwen.com/subject/yqcpxxtx.html
网友评论