美文网首页
决策数02

决策数02

作者: 文子轩 | 来源:发表于2020-06-08 20:31 被阅读0次

建树全参

class sklearn.tree.DecisionTreeRegressor (criterion=’mse’, splitter=’best’, max_depth=None,
min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features=None,
random_state=None, max_leaf_nodes=None, min_impurity_decrease=0.0, min_impurity_split=None, presort=False)

一、交叉验证

from sklearn.datasets import load_boston
from sklearn.model_selection import cross_val_score
from sklearn.tree import DecisionTreeRegressor
boston = load_boston()
regressor = DecisionTreeRegressor(random_state=0)
cross_val_score(regressor, boston.data, boston.target, cv=10, 
                scoring = "neg_mean_squared_error")

交叉验证是用来观察模型的稳定性的以一种方法,我们将数据划分为N份,依次使用其中的一份作为测试集,其它n-1份为训练集,多次计算模型的精准性来评估模型的平均准确程度。训练集和测试集的划分会干扰模型的结果,因此用交叉验证M次的结果求出的平均值,是对模型效果的一个更好的度量

ravel() 降维函数

二、泰坦尼克号的预测

对数据集进行预处理

#删除缺失值过多的列,和观察判断来说和预测的y没有关系的列
data.drop(["Cabin","Name","Ticket"],inplace=True,axis=1) #处理缺失值,对缺失值较多的列进行填补,有一些特征只确实一两个值,可以采取直接删除记录的方法
data["Age"] = data["Age"].fillna(data["Age"].mean())
data = data.dropna()
#将分类变量转换为数值型变量
#将二分类变量转换为数值型变量
#astype能够将一个pandas对象转换为某种类型,和apply(int(x))不同,astype可以将文本类转换为数字,用这
个方式可以很便捷地将二分类特征转换为0~1
data["Sex"] = (data["Sex"]== "male").astype("int") #将三分类变量转换为数值型变量
labels = data["Embarked"].unique().tolist()
data["Embarked"] = data["Embarked"].apply(lambda x: labels.index(x))
#查看处理后的数据集
data.head()

提取标签和特征矩阵,分测试集和训练集

X = data.iloc[:,data.columns != "Survived"] y = data.iloc[:,data.columns == "Survived"]
from sklearn.model_selection import train_test_split
Xtrain, Xtest, Ytrain, Ytest = train_test_split(X,y,test_size=0.3) #修正测试集和训练集的索引
for i in [Xtrain, Xtest, Ytrain, Ytest]:
    i.index = range(i.shape[0])
    
#查看分好的训练集和测试集
Xtrain.head()

导入模型,粗略跑一下查看结果

clf = DecisionTreeClassifier(random_state=25)
clf = clf.fit(Xtrain, Ytrain)
score_ = clf.score(Xtest, Ytest)
score_
score = cross_val_score(clf,X,y,cv=10).mean()
score

在不同的max_depth下观察模型的过拟合状况

tr = []
te = []
for i in range(10):
    clf = DecisionTreeClassifier(random_state=25
                                 ,max_depth=i+1
                                 ,criterion="entropy"
                               )
    clf = clf.fit(Xtrain, Ytrain)
    score_tr = clf.score(Xtrain,Ytrain)
    score_te = cross_val_score(clf,X,y,cv=10).mean()
    tr.append(score_tr)
    te.append(score_te)
print(max(te))
plt.plot(range(1,11),tr,color="red",label="train")
plt.plot(range(1,11),te,color="blue",label="test")
plt.xticks(range(1,11))
plt.legend()
plt.show()
#这里为什么使用“entropy”?因为我们注意到,在最大深度=3的时候,模型拟合不足,在训练集和测试集上的表现接近,但却都不是非常理想,只能够达到83%左右,所以我么要使用entropy

网格搜素调整参数

import numpy as np
gini_thresholds = np.linspace(0,0.5,20)
parameters = {'splitter':('best','random')
             ,'criterion':("gini","entropy")
             ,"max_depth":[*range(1,10)]
             ,'min_samples_leaf':[*range(1,50,5)]
             ,'min_impurity_decrease':[*np.linspace(0,0.5,20)]
             }
clf = DecisionTreeClassifier(random_state=25)
GS = GridSearchCV(clf, parameters, cv=10)
GS.fit(Xtrain,Ytrain)
GS.best_params_
GS.best_score_

相关文章

  • 决策数02

    建树全参 一、交叉验证 交叉验证是用来观察模型的稳定性的以一种方法,我们将数据划分为N份,依次使用其中的一份作为测...

  • 读书笔记34

    《管理学原理02》 13决策的理论 古典决策理论、行为决策理论、回溯决策理论。 131古典决策理论 , 又称规范决...

  • 数据分析

    管理的关键是决策,决策的前提是预测。这是决策和预测之间的关系。 数据挖掘(Data Mining)的技术定义: 数...

  • 决策树01

    决策数算法的核心是要解决最佳节点和最佳分支 如何从数据表中找到最佳节点和最佳分支 如何让决策数停止生长,防止过拟合...

  • 决策数及随机森林

    本来以为决策树很简单,所以初次写这篇帖子的时候也没仔细深究,后来学到xgboost的时候有些环节怎么想不明白,后来...

  • 《机器学习(周志华)》学习笔记(四)

    Q:决策树是什么? A:决策树是模拟人类决策过程,将判断一件事情所要做的一系列决策的各种可能的集合,以数的形式展现...

  • 递归过程中参数的变化

    ​- 课程大类AGENDA -01 Scratch 初中高01 女性编程日周二02 Python 编程思维02 数...

  • 任意进制转换

    ​- 课程大类AGENDA -01 Scratch 初中高01 女性编程日周二02 Python 编程思维02 数...

  • 嵌套数组的展开姿势最佳

    ​- 课程大类AGENDA -01 Scratch 初中高01 女性编程日周二02 Python 编程思维02 数...

  • 12.11商学院-决策数

    我们平时遇到的最艰难的事情,就是决策,学习了今天的关于决策数的课程,让我们有了一个可以进行决策的依据,不断联系总结...

网友评论

      本文标题:决策数02

      本文链接:https://www.haomeiwen.com/subject/lzcozhtx.html