练习1-回归模型

作者: silent_eyes_77 | 来源:发表于2019-02-03 19:05 被阅读2次

近几天详细看了几个模型,很多模型在理解算法思想后其实不难抓住思路,但是实际操作起来会遇到很多问题。

本周就先从回归模型进行巩固并熟悉算法和代码。数据来源于之前数据挖掘群群友分享的网站资源。本文选择的案例集为,预测医疗费用。

主要思路:
1.初步探索数据
2.探索特征之间相关关系
3.处理数据并建模

初步探索数据

import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
import seaborn as sns
%matplotlib inline

读取数据

data=pd.read_csv(r'/Users/---/Downloads/医疗费用预测数据集/insurance.csv')

预览数据

data.head()
image.png

画散点图,看特征数据关系

sns.pairplot(data,x_vars=['age','bmi','children'],y_vars='charges',size=7,aspect=0.8,kind='reg')
#用 kind 可以显示预测的回归线和置信区间
image.png

查看相关矩阵的数据

data.describe()
image.png

看到 费用均值>中位数,因此呈现右偏现象;

import pylab as pl
pl.hist(data['charges'])
pl.xlabel('charges')
pl.show()
image.png

在我们的数据中,绝大多数的个人每年的医疗费用都在0~15000美元,尽管分布的尾部经过直方图的峰部后延伸得很远。因为线性回归假设因变量的分布为正态分布,所以这种分布是不理想的。在实际应用中,线性回归的假设往往会被违背。如果需要,我们在后面能够修正该假设。 即将面临的另一个问题就是回归模型需要每一个特征都是数值型的,而在我们的数据中,我们有3个非数值类型的特征。 变量sex被划分成male和female两个水平,而变量smoker被划分成yes和no两个水平。从describe()的输出中,我们知道变量region有4个水平,但我们需要仔细看一看,它们是如何分布的。

#非数值型数据的描述
data['region'].describe() 

count 1338
unique 4
top southeast
freq 364
Name: region, dtype: object

data.region.value_counts()

southeast 364
northwest 325
southwest 325
northeast 324
Name: region, dtype: int64

可以看到,这里的数据几乎平均分在四个地理区域中

data['sex'].describe()

count 1338
unique 2
top male
freq 676
Name: sex, dtype: object

data['smoker'].describe()

count 1338
unique 2
top no
freq 1064
Name: smoker, dtype: object

探索特征之间的关系——相关系数矩阵

在使用回归模型拟合之前,需要确定自变量和因变量之间or 自变量之间是如何相关的。
用相关系数矩阵来快速确定这种相关关系。
命令:corr()

corrmat=data.corr()  #自动对数值型形成数据间对相关系数矩阵
corrmat
image.png
f,ax=plt.subplots(figsize=(20,9))# 控制绘图的尺寸
sns.heatmap(corrmat,vmax=0.9,square=True) # 热力图数据用corrmat,标签最大值为0.9,采用方形 
image.png

从相关系数矩阵结合热力图可以看出,变量之间两两关系如何。 行列之间交叉点位置,就是相关系数(热力图用颜色表示),对角线始终为1,因为变量自身于自身永远正相关(白色表示相关性最强)
从图中看,大多以深色为主,相关系数不是强相关。但是有一些显著关联。比如age和bmi,age和charge,bmi & charges,呈现中度相关。

基于数据训练模型

线性回归模型只能处理数值数据,因此需要对所有数据数值化。首先需要将非数值型变量转化为虚拟变量——sex 变为(0,1)等等
命令:dummycoding()

def dummycoding(dataframe):
#首先删掉数值型变量,对类别变量进行虚拟化
        dataframe_age = dataframe['age']
        dataframe_bmi = dataframe['bmi']
        dataframe_children = dataframe['children']
        dataframe_charges = dataframe['charges']
        dataframe_1 = dataframe.drop(['age'], axis = 1)
        dataframe_2 = dataframe_1.drop(['bmi'], axis = 1)
        dataframe_3 = dataframe_2.drop(['children'], axis = 1)
        dataframe_new=dataframe_3.drop(['charges'],axis=1)
        
        dataframe_new=pd.get_dummies(dataframe_new,prefix=dataframe_new.columns).astype(int)
        
    #对虚拟化完成之后对数据,增加原先的数值型变量
        dataframe_new['age']=dataframe_age
        dataframe_new['bmi']=dataframe_bmi
        dataframe_new['children']=dataframe_children
        dataframe_new['charges']=dataframe_charges
        return dataframe_new
    
data_lm=dummycoding(data)
data_lm.head()
image.png

上述操作,已经完成了对非数值型数据的虚拟化。然后在回归模型中,可以保留女性/不吸烟/北方 三个变量,作为参照组.

#下面,获取我们需要的因变量,和自变量
from sklearn import linear_model

data_lm_y=data_lm['charges']
data_lm_x1=data_lm.drop(['charges'],axis=1)
data_lm_x2=data_lm.drop(['sex_female'],axis=1)
data_lm_x3=data_lm.drop(['smoker_no'],axis=1)
data_lm_x=data_lm.drop(['region_northeast'],axis=1)
data_lm_x.head()
data_lm_y.head()

处理好自变量以后,接下来进行回归模型拟合

regr=linear_model.LinearRegression()
regr.fit(data_lm_x,data_lm_y)

# 打印截距,保留两位小数
print('Intercept:%.2f'% regr.intercept_)

print('Coefficients:')

# 打印回归系数
print(regr.coef_)

print('Residual sum of squares: %.2f'
      % np.mean((regr.predict(data_lm_x) - data_lm_y) ** 2))

print('Variance score: %.2f' % regr.score(data_lm_x, data_lm_y))

Intercept:-0.00
Coefficients:
[ 4.88218006e-13 -4.88241513e-13 -8.48711097e-12 8.48711085e-12
2.91478729e-13 -1.54068681e-12 -6.52275013e-13 1.28863116e-13
3.07629603e-13 4.38695302e-13 1.00000000e+00]
Residual sum of squares: 0.00
Variance score: 1.00

相关文章

网友评论

    本文标题:练习1-回归模型

    本文链接:https://www.haomeiwen.com/subject/aoxusqtx.html