美文网首页我爱编程
读书笔记-《机器学习实战》

读书笔记-《机器学习实战》

作者: kelololo | 来源:发表于2018-02-26 19:18 被阅读0次

    《机器学习实战》

    介绍:本书没有从理论角度来揭示机器学习算法背后的数学原理,而是通过“原理简述+问题实例+ 实际代码+运行效果”来介绍每一个算法。本书的代码采用Python语言编写

    主要任务

    回归:用于预测数值型数据

    分类和回归都属于监督学习

    于监督学习对应是无监督学习,此时数据没有类别信息,也不会给定目标值。在无监督学习中,将数据集合分成由类似的对象组成的多个类的过程被称为聚类;将寻找描述数据统计值的过程称之为密度估计。此外,无监督学习还可以减少数据特征的维度。

    表1-2列出了机器学习的主要任务,以及解决相应问题算法。

    1-2.png
    1.4 如何选择合适的算法

    选择实际可用算法需考虑:1、使用机器学习算法的目的,2、需要分析或收集什么数据

    首先考虑使用机器学习算法的目的。如果想要预测目标变量的值,可以选择监督学习算法,否则选无监督学习算法。

    目标变量类型:离散型[是/否]|[1/2/3][A/B/C]===》分类算法。连续数值[0.0100.0][+∞ -∞]===》回归算法

    1.5 开发机器学习应用程序的步骤

    (1)收集数据(2)准备输入数据(3)分析输入数据(4)训练算法 (5)测试算法 (6)使用算法

    1.6 Python 语言的优势

    选择Python原因:(1)python语法清晰 (2)易于操作纯文本文件 (3)使用广泛,存在大量的开发文档。

    1.6.1 可执行伪代码
    1.6.2 Python比较流行
    1.6.3 Python语言的特色
    1.6.4 Python语言的缺点

    性能问题

    1.7 NumPy函数库基础

    NumPy 函数库中有两种数据类型(矩阵matrix和数组array),输出结果完全不同,其中matrix与MATLAB中matrices等价。

    调用mat()函数可以将数据转化为矩阵,输入:

    
    randMat=mat(random.rand(4,4))
    
    #随机函数产生矩阵
    
    randMat.I
    
    #.I操作符实现了矩阵求逆的运算
    
    invRandMat=randMat.I
    
    myEye=randMat*invRandMat
    
    myEye-eye(4)
    
    
    第二章k-近邻算法

    本章内容

    k-近邻分类算法

    从文本文件中解析和导入数据

    使用Matplotlib创建扩散图

    归一化数值

    2.1 k-近邻算法概述

    k-近邻算法采用测量不同特征值之间的距离方法进行分类

    优点:精度搞,对异常值不敏感,无数据输入假定

    缺点:计算复杂度高,空间复杂度高

    适用数据范围:数值型和标称型。

    kNN工作原因:存在一个样本数据集合(训练样本集),每个数据都存在标签,输入没有标签的新数据后,将新数据的每个特征与样本集中数据对应的特征进行比较,然后算法提取样本集中特征最相似数据(最近邻)的分类标签。一般情况下,我们只选择样本数据集中前K个最相似的数据。通常K不小于20的整数。最后,选择K个最相似数据中出现次数最多的分类,作为新数据的分类。

    k-近邻算法的一般流程

    (1)收集数据:可以使用任何方法。

    (2)准备数据:距离计算所需要的数值,最好事结构化的数据格式。

    (3)分析数据:可以使用任何方法。

    (4)训练算法:此步骤不适用于k-近邻算法。

    (5)测试算法:计算错误率。

    (6)使用算法:首先需要输入样本数据和结构化的输出结果,然后运行k-近邻算法判定输入数据分别属于哪个分类,最后应用对计算出的分类执行后续的处理。

    2.1.1 准备:使用Python导入数据
    
    from numpy import *
    
    import operator
    
    def createDataSet():
    
        group=array([[1.0,1.1],[1.0,1.0],[0,0],[0,0.1]])
    
        labels=['A','A','B','B']
    
        return group,labels
    
    

    建立名为kNN.py

    调用方式

    
    >>>import kNN
    
    >>>group,labels=kNN.createDataSet()
    
    

    ####### 2.1.2 实施KNN算法

    伪代码

    对未知类别属性的数据集中的每个点依次执行以下操作:

    (1)计算已知类别数据集中的点与当前点之间的距离;

    (2)按照距离递增次序排序;

    (3)选取与当前点距离最小的k个点;

    (4)确定前k个点所在类别的出现频率;

    (5)返回前k个点出现频率最高的类别作为当前点的预测分类。

    距离计算-----选择距离最小的k个点-----排序

    
    def classify0(inX,dataSet,labels,k):
    
    dataSetSize=dataSet.shape[0]
    
    diffMat=tile(inX,(dataSetSize,1)) - dataSet
    
    sqDiffMat=diffMat**2
    
    sqDistances=sqDiffMat.sum(axis=1)
    
    distances=sqDistances**0.5
    
    sorteDisIndicies=distances.argsort()
    
    classCount={}
    
    for i in range(k):
    
    voteIlabel=labels[sortedDistIndicies[i]]
    
    classCount[voteIlabel]=classCount.get(voteIlabel,0)+1
    
    sortedClassCount=sorted(classCount.iteritems()
    
    key=operator.itemgetter(1),reverse=True)
    
    return sortedClassCount[0][0]
    
    

    相关文章

      网友评论

        本文标题:读书笔记-《机器学习实战》

        本文链接:https://www.haomeiwen.com/subject/pkxuxftx.html