美文网首页
决策树算法

决策树算法

作者: 遇见百分百 | 来源:发表于2018-05-14 11:35 被阅读0次

    机器学习中分类和预测算法:

    准确率、速度、强壮性、可规模性、可解释性特点

    1、什么是决策树?

        判定树为一个流程图的树结构,每一个内部节点为一个属性,叶子节点为输出的对象,树的最顶层为根节点。

    决策树图样

    2、决策树的构造和节点的确定?

    2.1熵的概念,信息和抽象,如何度量?1948年,香农提出了 ”信息熵(entropy)“的概念, 一条信息的信息量大小和它的不确定性有直接的关系,要搞清楚一件非常非常不确定的事情,或者 是我们一无所知的事情,需要了解大量信息==>信息量的度量就等于不确定性的多少? 例子:猜世界杯冠军,假如一无所知,猜多少次? 每个队夺冠的几率不是相等的, 比特(bit)来衡量信息的多少?

    比特衡量信息量的大小

    信息获取量(Information Gain):Gain(A) = Info(D) - Infor_A(D) 通过A来作为节点分类获取了多少信息

    例子

         类似,Gain(income) = 0.029, Gain(student) = 0.151, Gain(credit_rating)=0.048 所以,选择age作为第一个根节点

    结果

    3算法流程:

    (1)如果样本都在同一个类,则该结点成为树叶,并用该类标号(步骤2 和3)。

    (2)否则,算法使用称为信息增益的基于熵的度量作为启发信息,选择能够最好地将样本分类的属性(步骤6)。该属性成为该结点的“测试”或“判定”属性(步骤7)。在算法的该版本中,

    (3)所有的属性都是分类的,即离散值。连续属性必须离散化。

    (4)对测试属性的每个已知的值,创建一个分枝,并据此划分样本(步骤8-10)。

    (5)算法使用同样的过程,递归地形成每个划分上的样本判定树。一旦一个属性出现在一个结点上,就不必该结点的任何后代上考虑它(步骤13)。

    递归划分步骤仅当下列条件之一成立停止:

    (a) 给定结点的所有样本属于同一类(步骤2 和3)。

    (b) 没有剩余属性可以用来进一步划分样本(步骤4)。在此情况下,使用多数表决(步骤5)。

    这涉及将给定的结点转换成树叶,并用样本中的多数所在的类标记它。替换地,可以存放结

    点样本的类分布。

    (c) 分枝

    test_attribute = a i 没有样本(步骤11)。在这种情况下,以 samples 中的多数类

    创建一个树叶(步骤12)

    4、其他算法

                   Classification and Regression Trees (CART): (L. Breiman, J. Friedman, R. Olshen, C. Stone)

                   共同点:都是贪心算法,自上而下(Top-down approach)

                   区别:属性选择度量方法不同: C4.5 (gain ratio), CART(gini index), ID3 (Information Gain)

    4、树剪枝(避免overfitting)

        4.1先剪枝、后剪枝

    5. 决策树的优点:

         直观,便于理解,小规模数据集有效     

    6. 决策树的缺点:

         处理连续变量不好、类别较多时,错误增加的比较快、可规模性一般

    算法实现(Python)


    from sklearn.feature_extractionimport DictVectorizer

    import csv

    from sklearnimport preprocessing

    from sklearnimport tree

    from sklearn.externals.siximport StringIO#格式的预处理

    #读取文件

    allElectronicsData=open(r'test.csv','rt')#读取csv文件

    reader=csv.reader(allElectronicsData)

    headers=next(reader)#定义的第一行

    print(headers)

    featureList=[]#数据的输入特性,使用的是数值型的值

    labelList=[]

    for rowin reader:

    labelList.append(row[len(row)-1])#添加标签,取每行的最后一个数字

    #print(labelList)

        rowDict={}#取每行的特征值

        for iin range(1,len(row)-1):

    rowDict[headers[i]]= row[i]#每一行设置字典项

        featureList.append(rowDict)

    print(featureList)

    vec=DictVectorizer()#直接在vec对象上调用方法,对于feature值的转化,转化为0或1的属性

    dummyX=vec.fit_transform(featureList).toarray()

    print("dummyX:"+str(dummyX))

    print(vec.get_feature_names())

    print("labelList:"+str(labelList))

    lb=preprocessing.LabelBinarizer()#对于label的转化

    dummyY=lb.fit_transform(labelList)

    print("dummyY:"+str(dummyY))

    clf=tree.DecisionTreeClassifier(criterion='entropy')#分类树的参数的选取,基于信息熵来度量标准

    clf=clf.fit(dummyX,dummyY)#填入参数,调用fit,构建决策树

    print("clf:"+str(clf))

    with open("test.dot",'w')as f:

    f=tree.export_graphviz(clf,feature_names=vec.get_feature_names(),out_file=f)

    #将原0、1的数值转化为属性值

    # predict

    oneRowX = dummyX[0, :]

    print("oneRowX:" +str(oneRowX))

    # 修改这一行的数据,然后执行

    newRowX = oneRowX

    newRowX[0] =1

    newRowX[1] =0

    print("newRowX:" +str(newRowX))

    # 添加一个中括号

    predictedY = clf.predict([newRowX])

    # print(help(clf.predict))

    print("predictedY:" +str(predictedY))

    # 将dot文件转化为pdf文件,dot -Tpdf iris.dot -o outpu.pdf

    # 决策树转化

    # dot -Tpdf D:\PythonWork\TeachingPython\src\DecsionTree\test.dot -o D:\PythonWork\TeachingPython\src\DecsionTree\outpu.pdf

    相关文章

      网友评论

          本文标题:决策树算法

          本文链接:https://www.haomeiwen.com/subject/dtsddftx.html