美文网首页数据挖掘大数据,机器学习,人工智能程序员
【实现】利用罗杰斯特回归预测疝气病马死亡率

【实现】利用罗杰斯特回归预测疝气病马死亡率

作者: 七八音 | 来源:发表于2018-01-15 09:57 被阅读41次

    利用Logistics Regression罗杰斯特回归预测疝气病马死亡率。

    1. 收集数据

    收集的数据划分成训练集和测试集,每个样例包括21个特征和1个类别标签。

    数据格式

    2. 准备数据

    要求数据类型为:数值型;另外,结构化数据格式最佳。

    用Python解析文本文件并填充缺失值。

    缺失值的填充方式:

    --使用可用特征的均值来填补;

    --使用特殊值来填补,如-1;

    --忽略有缺失值的样本;

    --使用相似样本的均值填补缺失值;

    --使用另外的机器学习算法预测缺失值;

    不同的处理方式之间各有优劣,同时,具体问题需要具体分析,没有普适的处理方法。

    3. 分析数据

    可视化并观察数据。

    4. 训练算法

    使用优化算法,找到最佳的系数。

    数据样本之间服从罗杰斯特分布。分布函数为:

    分布函数

    函数定义:

    def sigmod(x):

        return 1/(1+exp(-x))

    Sigmod函数:

    优化算法,主要是梯度算法(下降or上升)。

    A. 梯度上升算法

    设定循环迭代次数,权重系数的每次更新是通过计算所有样本得出来的。当训练集过于庞大时,不利于计算。

    alpha:步长,又称为学习率。

    def gradAscent(dataMatIn, classLabels):

        dataMat= mat(dataMatIn)

        labelMat= mat(classLabels).transpose()

        m, n= shape(dataMat)

        alpha= 0.001

        maxCycles= 500

        weights= ones((n,1))

        for k in range(maxCycles):

            h= sigmod(dataMat*weights)

            error= (labelMat- h)

            weights= weights+ alpha*dataMat.transpose()*error#省去了数学推导式

        return weights

    B. 随机梯度上升

    对梯度上升算法进行改进。权重系数的每次更新通过训练集的每个记录计算得到。

    可以在新样本到来时对分类器进行增量式更新,因而,随机梯度上升算法是一个在线学习算法。

    这种参数更新算法:容易受到噪声点的影响。在大的波动停止后,还有一些小的周期性波动。

    def stocGradAscent0(dataMat,classLabels):

        m, n=shape(dataMat)

        alpha= 0.01

        weights= ones(n)

        for i in range(m):

            h= sigmod(sum(dataMat[i]*weights))

            error= classLabels[i] - h

            weights= weights+ alpha*error*dataMat[i]

        return weights

    C. 改进的随机梯度上升算法

    学习率:变化。随着迭代次数的增多,逐渐变下。

    权重系数更新:设定迭代次数,每次更新选择的样例是随机的(不是依次选的)。

    def stocGradAscent1(dataMat, classLabels, numIter=150):

        m,n= shape(dataMat)

        weights= ones(n)

        for jin range(numIter):#迭代次数

            dataIndex= range(m)

            for i in range(m):#依据训练集更新权重系数

                alpha= 4/(1.0+j+i) + 0.1

                randIndex= int(random.uniform(0,len(dataIndex)))#确保随机性

                h= sigmod(sum(dataMat[randIndex]*weights)) 

                error= classLabels[randIndex] - h

                weights= weights+ alpha*error*dataMat[randIndex]

                del dataIndex[randIndex]

        return weights

    分类算法

    def classifyVector(inX, weights):

        prob= sigmod(sum(inX*weights))

        if prob> 0.5:

            return 1.0

        else:

            return 0.0

    5. 测试算法

    为了量化回归效果,使用错误率作为观察指标。根据错误率决定是否回退到训练阶段,通过改变迭代次数和步骤等参数来得到更好的回归系数。

    def colicTest():

        frTrain= open('horseColicTraining.txt')

        frTest= open('horseColicTest.txt')

        trainSet= []; trainLabels= []

        for line in frTrain.readlines():

            line= line.strip().split('\t')

            lineArr= []

            for i in range(21):

                lineArr.append(float(line[i]))

            trainSet.append(lineArr)

            trainLabels.append(float(line[21]))

        trainWeights= stocGradAscent1(array(trainSet),trainLabels)

        errorCnt= 0; numTestVec= 0.0

        for line in frTest.readlines():

            numTestVec+= 1

            currLine= line.strip().split('\t')

            lineArr= []

            for i in range(21):

                lineArr.append(float(currLine[i]))

            if int(classifyVector(array(lineArr),trainWeights)) != int(currLine[21]):

                errorCnt+= 1

        errorRate= float(errorCnt)/numTestVec

        print ("the error rate of this test is: %f" % errorRate)

        return errorRate

    通过多次测试,取平均,作为该分类器错误率:

    def multiTest():

        numTests= 10; errorSum= 0.0

        for k in range(numTests):

            errorSum+= colicTest()

        print ("after %d iterations the average error rate is: %f" %(numTests,float(errorSum)/numTests))

    运行结果:

    错误率为36.1%。

    6. 小结

    优点:计算代价不高,易于理解和实现;

    缺点:容易欠拟合,分类进度可能不高;

    使用数据类型:数值型和标称型数据。

    下一章:准备把罗杰斯特回归设计的梯度上升算法的数学推导,梳理一下并证明。

    To Be Continued!

    祈年殿

    相关文章

      网友评论

        本文标题:【实现】利用罗杰斯特回归预测疝气病马死亡率

        本文链接:https://www.haomeiwen.com/subject/bikroxtx.html