Python 机器学习的利器(2)

作者: zidea | 来源:发表于2019-07-22 06:47 被阅读16次
    python

    在机器学习中,对数据进行分析和处理是必不可少,而且也是决定我们训练效果的关键。

    参考《Python机器学习基础教程》
    参考 国外有关 pandas 库的教程

    iris
    from sklearn.datasets import load_iris
    iris_dataset = load_iris()
    print(iris_dataset)
    

    会返回一个类似字典结构的数据

    print("Keys of iris_dataset: \n{}".format(iris_dataset.keys()))
    

    输出如下,同 keys 方法打印 iris_dataset 数据的键值,然后就可以根据键值来获取对应我们想要数据。我是 java 出生喜欢驼峰命名,不过来到 python 也需要入乡随俗,使用蛇形命名 iris_dataset

    Keys of iris_dataset: 
    ['target', 'DESCR', 'target_names', 'feature_names', 'data', 'filename']
    

    在 DESCR 键所对应内容为说明文字。

    print(iris_dataset['DESCR'])
    
    在数据都有哪些类别

    随后通过对数据进行训练,机器学习通过训练后根据给数据(特征)判断出数据描述属于哪一个类别。

    print(iris_dataset['target_names'])
    

    打印一下数据,包括以下类别

    ['setosa' 'versicolor' 'virginica']
    
    在数据中有些特性

    随后我们根据这些特性对数据进行分类,找出可以区分特性是可以分类的前提。

    print(iris_dataset['feature_names'])
    

    输出

    ['sepal length (cm)', 'sepal width (cm)', 'petal length (cm)', 'petal width (cm)']
    

    萼片(sepal)的宽度和长度,以及花瓣(petal)的宽度和长度进行判断。

    数据结构

    我们看一看 data 里面数据什么样,先来看看数据是什么样结构和形状(这里形状通常指如果数据结构为矩阵,形状是用来表述矩阵维度的)

    print(type(iris_dataset['data']))
    
    print(iris_dataset['data'].shape)
    
    (150, 4)
    

    从形状来看数据中有 150 x 4 矩阵,也就是有 150 条数据,4 表示每条记录中对应 4 个特征的值。

    print(iris_dataset['data'][:5])
    

    通过打印前 5 行数据来看一看其庐山真面目。

    [[5.1 3.5 1.4 0.2]
     [4.9 3.  1.4 0.2]
     [4.7 3.2 1.3 0.2]
     [4.6 3.1 1.5 0.2]
     [5.  3.6 1.4 0.2]]
    
    查看期望值
    print(iris_dataset['target'].shape)
    
    (150,)
    

    输出一下期望值,我们 data 数据每条数据对应一个类别,这个是已知条件,每条数据所属的类别(也就是期望值)包括在 target 中。

    print(iris_dataset['target'])
    
    [0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
     0 0 0 0 0 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
     1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 2 2 2 2 2 2 2 2 2 2 2
     2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2
     2 2]
    

    数据 0,1,2 分别对应三种类别。

    预处理数据

    现在有了数据,对数据结构也有了了解,接下来我们需要将数据进行整理,将数据随机分为训练数据和测试数据

    • 用于构建机器模型的数据被称为训练数据
    • 用于评估训练好的模型的好坏的数据集称为测试数据
    from sklearn.model_selection import train_test_split
    X_train, X_test, y_train, y_test = train_test_split(iris_dataset['data'],iris_dataset['target'],random_state=0)
    

    train_test_split 函数将数据进行洗牌后将 75% 数据作为训练数据,而 25% 数据作为测试数据集。random_state 参数指定随机数生成器的种子。好处是函数输出就是固定不变的,输出一致性。

    grr = pd.plotting.scatter_matrix(iris_dataframe, c=y_train, figsize=(
        15, 15), marker='o', hist_kwds={'bins': 20}, s=60, alpha=.8, cmap=mglearn.cm3)
    import matplotlib.pyplot as plt
    plt.show()
    

    通过 matplotlib 来可视化数据


    在开始训练模型

    相关文章

      网友评论

        本文标题:Python 机器学习的利器(2)

        本文链接:https://www.haomeiwen.com/subject/ugjmlctx.html