美文网首页web服务器
数据科学(机器学习: Logistic回归算法)

数据科学(机器学习: Logistic回归算法)

作者: GHope | 来源:发表于2018-11-26 11:36 被阅读119次

    回归算法的一种,假设现在有一些数据点,我们利用一条直线对这些点进行拟合(该线称为最佳拟合直线),这个拟合过程就称作为回归。

    Logistic回归进行分类的主要思想是:根据现有数据对分类边界线建立回归公式,以此进行分类。

    Sigmoid函数 ,我们也可以称它为Logistic函数

    hθ(x)给出了输出为1的概率。比如当hθ(x)=0.7,那么说明有70%的概率输出为1。输出为0的概率是输出为1的补集,也就是30%。

    θ是参数列向量(要求解的),x是样本列向量(给定的数据集)。θ^T表示θ的转置。g(z)函数实现 了任意实数到[0,1]的映射,这样我们的数据集([x0,x1,…,xn]),不管是大于1或者小于0,都可以映射到[0,1]区间进行分类

    如果我们有合适的参数列向量θ([θ0,θ1,…θn]^T),以及样本列向量x([x0,x1,…,xn]),那么我们对样本x分类就可以通过上述公式计算出一个概率,如果这个概率大于0.5,我们就可以说样本是正样本,否则样本是负样本。

    梯度上升算法

    用迭代的方法来做。就像爬坡一样,一点一点逼近极值。这种寻找最佳拟合参数的方法,就是最优化算法,求最大值,需要使用梯度上升算法,求最小值,用梯度下降算法

    矢量化算法

    演示数据 (testSet.txt)

    第一列数据(X1)看作x轴上的值,第二列数据(X2)看作y轴上的值。而最后一列数据即为分类标签。根据标签的不同,对这些点进行分类。

    import matplotlib.pyplot as plt 
    import numpy as np
    """ 
    函数说明:加载数据
    Parameters:
        无 
    Returns:
        dataMat - 数据列表
        labelMat - 标签列表
    """ 
    def loadDataSet():
        dataMat = []                                                        #创建数据列表
        labelMat = []                                                        #创建标签列表
        fr = open('examples/testSet.txt')                                            #打开文件
        for line in fr.readlines():                                            #逐行读取
                lineArr = line.strip().split()                                    #去回车,放入列表
                dataMat.append([1.0, float(lineArr[0]), float(lineArr[1])])        #添加数据
                labelMat.append(int(lineArr[2]))                                #添加标签
        fr.close()                                                            #关闭文件
        return dataMat, labelMat                                            #返回
    
    
    """ 
    函数说明:绘制数据集
    Parameters:
        无 
    Returns:
        无 
    """ 
    def plotDataSet():
        dataMat, labelMat = loadDataSet()                                    #加载数据集
        dataArr = np.array(dataMat)                                            #转换成numpy的array数组
        n = np.shape(dataMat)[0]                                            #数据个数
        xcord1 = []; ycord1 = []                                            #正样本
        xcord2 = []; ycord2 = []                                            #负样本
        for i in range(n):                                                    #根据数据集标签进行类
            if int(labelMat[i]) == 1:
                xcord1.append(dataArr[i,1]); ycord1.append(dataArr[i,2])    #1为正样本
            else:
                xcord2.append(dataArr[i,1]); ycord2.append(dataArr[i,2])    #0为负样本
        fig = plt.figure()
        ax = fig.add_subplot(111)                                            #添加subplot
        ax.scatter(xcord1, ycord1, s = 20, c = 'red', marker = 's',alpha=.5)#绘制正样本
        ax.scatter(xcord2, ycord2, s = 20, c = 'green',alpha=.5)            #绘制负样本
        plt.title('DataSet')                                                #绘制 title
        plt.xlabel('x'); plt.ylabel('y')                                    #绘制label
        plt.show()                                                            #显示
    
    
    """ 
    函数说明:sigmoid函数
    Parameters:
        inX - 数据 
    Returns:
        sigmoid函数 
    """ 
    def sigmoid(inX):
        return 1.0 / (1 + np.exp(-inX))
    
    
    """ 
    函数说明:梯度上升算法
    Parameters:
        dataMatIn - 数据集
        classLabels - 数据标签 
    Returns:
        weights.getA() - 求得的权重数组(最优参数)
    """ 
    def gradAscent(dataMatIn, classLabels):
        dataMatrix = np.mat(dataMatIn)                                        #转换成numpy的mat
        labelMat = np.mat(classLabels).transpose()                            #转换成numpy的mat,并进行转置
        m, n = np.shape(dataMatrix)                                            #返回dataMatrix的大小。m为行数,n为列数。
        alpha = 0.001                                                        #移动步长,也就是学习速率,控制更更新的幅度。
        maxCycles = 500                                                        #最大迭代次数
        weights = np.ones((n,1))
        for k in range(maxCycles):
            h = sigmoid(dataMatrix * weights)                                #梯度上 升矢量化公式
            error = labelMat - h
            weights = weights + alpha * dataMatrix.transpose() * error
        return weights.getA()                                                #将矩阵转换为数组,返回权重数组
    
    权重数组

    求解出回归系数[w0,w1,w2]。 通过求解出的参数,我们就可以确定不同类别数据之间的分隔线,画出决策边界

    绘制决策边界

    一组回归系数,它确定了不同类别数据之间的分隔线

    """ 
    函数说明:绘制数据集
    Parameters:
        weights - 权重参数数组 
    Returns:    无 
    """ 
    def plotBestFit(weights):
        dataMat, labelMat = loadDataSet()                                    #加载数据集
        dataArr = np.array(dataMat)                                            #转换成numpy的array数组
        n = np.shape(dataMat)[0]                                            #数据个数
        xcord1 = []; ycord1 = []                                            #正样本
        xcord2 = []; ycord2 = []                                            #负样本
        for i in range(n):                                                    #根据数据集标签进行类
            if int(labelMat[i]) == 1:
                xcord1.append(dataArr[i,1]); ycord1.append(dataArr[i,2])    #1为正样 本
            else:
                xcord2.append(dataArr[i,1]); ycord2.append(dataArr[i,2])    #0为负样 本
        fig = plt.figure()
        ax = fig.add_subplot(111)                                            #添加 subplot
        ax.scatter(xcord1, ycord1, s = 20, c = 'red', marker = 's',alpha=.5)#绘制正样本
        ax.scatter(xcord2, ycord2, s = 20, c = 'green',alpha=.5)            #绘制负样本
        x = np.arange(-3.0, 3.0, 0.1)
        y = (-weights[0] - weights[1] * x) / weights[2]
        ax.plot(x, y)
        plt.title('BestFit')                                                #绘制 title
        plt.xlabel('X1'); plt.ylabel('X2')                                    #绘制 label    
        plt.show()   
    

    相关文章

      网友评论

      本文标题:数据科学(机器学习: Logistic回归算法)

      本文链接:https://www.haomeiwen.com/subject/xandqqtx.html