机器学习(3)——回归模型

作者: 飘涯 | 来源:发表于2018-03-06 19:32 被阅读79次

前言:紧接上一篇文章结尾,预测值和真实值存在较大差距,接着介绍用多项式权重来提高拟合度(R2),过拟合解决办法,引出正则项L1和L2,Ridge回归和LASSO回归。

目标函数

机器学习中目标函数是指模型训练的过程中(参数求解的过程中)方向是什么。例如线性回归的方向就是让目标函数的取值越小越好,线性回归用到就是平方和损失函数,感知损失用到SVM,对数损失函数用到逻辑回归等。常见的几种目标函数: image.png

多项式扩展

  • 当线性模型无法准确模拟数据时候,我们对数据进行扩展,现在这里在线性模型的基础上进行多项式扩展,用曲线模拟数据,以求得较好的模型。
  • 概念:将数据中的特征与特征之间进行融合,形成新的特征的一个过程,数学上来说,将低维度数据点映射到高维空间。属于特征工程的一种操作。
    对于一元线性回归模型: image.png
    扩展成一元多项式回归模型就是: image.png
    如下图模型用线性直接描述误差会很大,用多项式扩展去描述反而会变得很好 image.png image.png
    我们用多项式扩展来对上一篇中的模型就行改进,引入from sklearn.preprocessing import PolynomialFeatures
    改进后的代码如下:
#-*- conding:utf-8 -*-
#准确率:print("电流预测准确率: ", lr2.score(X2_test,Y2_test))
from sklearn.model_selection import train_test_split
from sklearn.linear_model import LinearRegression
from sklearn.preprocessing import StandardScaler
from sklearn.preprocessing import PolynomialFeatures
import numpy as np
import pandas as pd
from pandas import DataFrame
import matplotlib as mpl
import matplotlib.pyplot as plt
import time
#防止中文乱码
mpl.rcParams['font.sans-serif']=[u'simHei']
mpl.rcParams['axes.unicode_minus']=False
#加载数据
path="household_power_consumption_1000.txt"
df = pd.read_csv(path,sep=";")
#数据处理,包括,清除空数据
df1=df.replace("?",np.nan)
data = df1.dropna(axis=0,how="any")
#把数据中的字符串转化为数字
def data_formate(x):
    t = time.strptime(' '.join(x), '%d/%m/%Y %H:%M:%S')
    return (t.tm_year, t.tm_mon, t.tm_mday, t.tm_hour, t.tm_min, t.tm_sec)
X = data.iloc[:,0:2]
x = X.apply(lambda x:pd.Series(data_formate(x)),axis=1)
y = data.iloc[:,4]
#数据分集
x_train,x_test,y_train,y_test=train_test_split(x,y,test_size=0.2,random_state=0)
#标准化
ss = StandardScaler()
x_train=ss.fit_transform(x_train)
x_test=ss.transform(x_test)
#模型训练
pol = PolynomialFeatures(degree = 9)
xtrain_pol = pol.fit_transform(x_train)
xtest_pol = pol.fit_transform(x_test)
lr = LinearRegression()
lr.fit(xtrain_pol,y_train)
y_pridect=lr.predict(xtest_pol)
#输出参数
print("模型的系数(θ):",lr.coef_)
print("模型的截距:",lr.intercept_)
# print("训练集上R2:",lr.score(x_train, y_train))
print("测试集上R2:",lr.score(xtest_pol, y_test))
mse = np.average((y_pridect-y_test)**2)
rmse = np.sqrt(mse)
print("rmse:",rmse)
#画图
t=np.arange(len(y_test))
plt.figure(facecolor='w')#建一个画布,facecolor是背景色
plt.plot(t, y_test, 'r-', linewidth=2, label='真实值')
plt.plot(t, y_pridect, 'g-', linewidth=2, label='预测值')
plt.legend(loc = 'upper left')#显示图例,设置图例的位置
plt.title("线性回归预测时间和电压之间的关系", fontsize=20)
plt.grid(b=True)#加网格
plt.show()

当参数degree = 1,2,3,4时候图像如下:

image.png
准确率提高了不少,当degree = 9时候,会发现参数值会异常大,这就是出现了所谓的过拟合了,模型的系数(θ): [ 1.75147911e+12 4.24195739e+10 -2.94579982e+11 ... 0.00000000e+00
0.00000000e+00 0.00000000e+00]
为了防止模型的过拟合我们引入了正则项norm

正则项

  • L1-norm


    image.png
  • L2-norm


    image.png

    对应的回归模型分别是Ridge回归(L2-norm)和LASSO回归(L1-norm)

  • ElasitcNet算法
    同时使用L1正则和L2正则的线性回归模型就称为 ElasitcNet算法(弹性网络算法)


    image.png

机器学习调参

在实际工作中,对于各种算法模型(以线性模型弹性网络算法为例)来讲,我们需要获取θ、入、p的值的求解其实就是算法模型的求解,一般不需要开发人员参与(算法已经实现),
主要需要求解的是λ和p的值,这个过程就叫做调参(超参)

  • 交叉验证
    将训练数据分为多份,其中一份进行数据验证获取最优的超参:λ和p;比如:十折交叉验证、五折交叉验证(Sckⅰt- learn中默认)等

相关文章

  • 2019-02-17

    机器学习系列 机器学习100天 机器学习第1天:数据预处理 机器学习第2天:简单线性回归模型 机器学习第3天:多元...

  • Task4模型调参

    学习目标 了解常用的机器学习模型,并掌握机器学习模型的建模与调参流程 内容介绍 线性回归模型:线性回归对于特征的要...

  • 机器学习(3)——回归模型

    前言:紧接上一篇文章结尾,预测值和真实值存在较大差距,接着介绍用多项式权重来提高拟合度(R2),过拟合解决办法,引...

  • 线性回归模型

    参考:1.使用Python进行线性回归2.python机器学习:多元线性回归3.线性回归概念 线性回归模型是线性模...

  • 2018-11-06

    机器学习: 1、kmeans 2、meanshift 3、最小二乘法 4、逻辑回归、线性回归 5、混合高斯模型 6...

  • 算法工程师知识树 持续更新

    机器学习算法 监督学习分类模型LRSVM决策树NB回归模型线性回归 最小二乘融合模型baggingRFboosti...

  • 2019-10-29

    Day2 简单线性回归模型 机器学习入门--简单线性回归机器学习算法之线性回归算法 导入库matplotlib 绘...

  • 关于机器学习中的广义线性模型(GLM)

    在机器学习中,有着许多模型,比如传统的线性回归模型,logistic回归,soft max回归啊之类的很多,那么从...

  • 逻辑回归为什么用交叉熵损失函数

    1 Logistic Regression(逻辑回归) 逻辑回归是机器学习中的一个非常常见的模型, 逻辑回归模型其...

  • 0-机器学习启蒙-导学

    机器学习-导学 机器学习工资高。 教学方法: 理论结合实际。 回归模型 分类模型 聚类模型 推荐系统 在大家把理论...

网友评论

    本文标题:机器学习(3)——回归模型

    本文链接:https://www.haomeiwen.com/subject/qbqlfftx.html