美文网首页
1 监督学习-概述

1 监督学习-概述

作者: 奋斗的喵儿 | 来源:发表于2021-03-26 10:03 被阅读0次

1.1 统计学习
统计学习包括监督学习、非监督学习、半监督学习及强化学习。
步骤:
1)得到一个有限的训练数据集合
2)确定包含所有可能的模型的假设空间,即学习模型的集合
3)确定模型选择的准则,即学习的策略
4)实现求解最优模型的算法,即学习的算法
5)通过学习方法选择最优模型
6)利用学习的最优模型对新数据进行预测或分析

1.2 监督学习
监督学习(supervised learning)的任务是学习一个模型,使模型能够对任意给定的输入,对其相应的输出做出一个好的预测。从训练数据中学习模型,对测试数据进行预测。

1.3 统计学习三要素
1)模型
本书中决策函数表示的模型为非概率模型
条件概率表示的模型为概率模型
2)策略
损失函数度量模型一次预测的好坏
a. 0-1损失函数 L(Y, f(X))
b. 平方损失函数
c. 绝对损失函数
d. 对数损失函数
风险函数度量平均意义下的模型预测好坏
3)算法

1.4 模型估计与模型选择
训练误差:模型关于训练数据集的平均损失
测试误差:模型关于测试数据集的平均损失
过拟合

1.5 模型选择方法:正则化与交叉验证
1)正则化是结构风险最小化策略的实现,是在经验风险上加上一个正则化项或罚项。正则化的作用是选择经验风险与模型复杂度同时较小的模型。
2)交叉验证
一种简单的模型选择方法是随机的将数据集切分为训练集、验证集和测试集,训练集用于训练模型,验证集用于模型选择,测试集用于最终对学习方法的评估。
在实际应用中,数据不是充足的,为了选择好的模型,采用交叉验证。基本思想是重复的使用数据;把给定的数据切分,将切分的数据集组合为训练集和测试集,在此基础上反复训练、测试及模型选择。
简单交叉验证、S折交叉验证、留一交叉验证。

1.6 泛化能力
学习方法的泛化能力是由该方法学习到的模型对未知数据的预测能力,是学习方法本质上重要的性质。
泛化误差是所学习到的模型的期望风险。

1.7 生成模型与判别模型
生成方法由数据学习联合概率分布P(X,Y),然后求出条件概率分布P(Y|X)作为预测的模型,即生成模型,典型的生成模型:朴素贝叶斯法和隐马尔可夫模型。
判别方法由数据学习决策函数f(X)或者条件概率分布P(Y|X)作为预测的模型,即判别模型,典型的判别模型:k近邻法、感知机、决策树、逻辑斯谛回归模型、最大熵模型、支持向量机、提升方法、条件随机场等。

1.8 分类问题

1.9 标注问题

1.10 回归问题

练习
例题1.1 数据拟合

import numpy as np
import matplotlib.pyplot as plt
import scipy as sp
from scipy.optimize import leastsq

# 目标函数 sin2πx
def real_func(x):
    return np.sin(2 * np.pi * x)

# 拟合函数 多项式
def fit_func(p, x):
    f = np.poly1d(p)
    return f(x)

# 残差
def residuals_func(p, x, y):
    ret = fit_func(p, x) - y
    return ret

x = np.linspace(0, 1, 10)   #0~1之间10个数字
x_points = np.linspace(0, 1, 1000)
# 增加正态分布噪音的目标函数值
y_ = real_func(x)
y = [np.random.normal(0, 0.1) + y1 for y1 in y_]  #正态分布均值0,标准差0.1


def fitting(m=0):
    # m是多项式次数
    # 随机初始化多项式参数
    p_init = np.random.rand(m + 1)  #随机生成[0,1)之间的m+1个数,返回多项式的次数就是m
    # 最小二乘
    p_lsq = leastsq(residuals_func, p_init, args=(x, y))   #args数据点
    # 可视化
    plt.plot(x_points, real_func(x_points), label='real')
    plt.plot(x_points, fit_func(p_lsq[0], x_points), label='fitted curve')
    plt.plot(x, y, 'bo', label='noise')
    plt.legend()
    plt.show()
    return p_lsq

p_lsq_0 = fitting(m=0)
p_lsq_0

m=0


image.png

m=1


image.png

m=3


image.png

m=9


image.png

m=9出现了过拟合,加入正则化项,降低过拟合

regularization = 0.0001

def residuals_func_regularization(p, x, y):
    ret = fit_func(p, x) - y
    ret = np.append(ret,
                    np.sqrt(0.5 * regularization * np.square(p)))  # L2范数作为正则化项
    return ret

# 最小二乘法,加正则化项
p_init = np.random.rand(9 + 1)
p_lsq_regularization = leastsq(
    residuals_func_regularization, p_init, args=(x, y))

plt.plot(x_points, real_func(x_points), label='real')
plt.plot(
    x_points,
    fit_func(p_lsq_regularization[0], x_points),
    label='regularization')
plt.plot(x, y, 'bo', label='noise')
plt.legend()
plt.show()
image.png

相关文章

  • 1 监督学习-概述

    1.1 统计学习统计学习包括监督学习、非监督学习、半监督学习及强化学习。步骤:1)得到一个有限的训练数据集合2)确...

  • 基于Spark的机器学习实践 (九) - 聚类算法

    1 k-平均算法(k-means clustering)概述 1.1 回顾无监督学习 ◆ 分类、回归都属于监督学习...

  • 支持向量机SVM

    概述(Support Vector Machines) 可以做 有监督学习、无监督学习 分类问题,聚类问题 (SV...

  • 数学模拟

    数学建模这一章,主要学习了一些基本的监督学习与非监督学习的算法的理论概述与python实现,主要是监督学习中回归,...

  • 深度强化学习入门

    概述 机器学习领域目前可以分为有监督学习,无监督学习,强化学习,迁移学习四个方向。本文将尽可能以通俗的语言带你入门...

  • Types of Machine Learning: Super

    1. 监督学习 or 无监督学习 2. 监督学习 2.1 分类 2.2 回归 2.3 监督学习:分类 & 回归...

  • KNN原理及Python代码实现(超详细版)

    一、原理 1. 概述 K近邻法(k-nearest neighbors,KNN)是一种有监督的学习算法,也是机器学...

  • 机器学习:10. 聚类算法KMeans

    1 概述 无监督的算法在训练的时候只需要特征矩阵X,不需要标签。有监督学习是在模型在训练的时候,即需要特征矩阵X,...

  • 机器学习分类

    就目前机器学习的主流算法做个概述机器学习目前分有监督机器学习和无监督机器学习。一个形象的比喻就是做练习题,这个练习...

  • 第一章:机器学习基础

    第一章:机器学习基础 一、机器学习的简单概述 1.机器学习的分类: 1.1有监督学习:用已知的某种或某些特性的样本...

网友评论

      本文标题:1 监督学习-概述

      本文链接:https://www.haomeiwen.com/subject/yelhhltx.html