分类与回归树(CART)方法是一种机器学习方法,具有很好的数据拟合性、较高的R2值和较低的RMSE,是一种很好的探索性方法,其目的是确定分类与预测规则。CART以其高精度和高性能在不同的工程领域得到了广泛的应用。具体介绍就不在赘述,可以参考百度(有很多),这里直接上代码。本实例以我的研究为例。主要工具是采用R语言包进行结果的输出。
主要步骤:
1 首先主要采用的是R语言中的Cubist包,输入代码前要先进行安装,install.packet('Cubist'),安装成功后可直接运行。
2 数据准备:
这一步相对比较简单,将因变量与自变量按列排列即可,该实例中自变量既可以是数值形式也可以是文本形式,如下数据格式:
image.png
3 复制代码,注意修改自己的路径。下述代码将原始数据分为test和train两部分,结合自身情况可以进一步输出。
library(Cubist)
library(caret)
setwd("I:\\01-data\\Global\\flux\\FLUXNET2015\\04Result\\RV3_年值03_合并所有年份\\")
data = read.csv("I:\\01-data\\Global\\flux\\FLUXNET2015\\04Result\\RV3_年值03_合并所有年份\\NPP_yearly.csv",header = T)
set.seed(1) # 设置种子,保证生成的随机数不发生变化
inTrain <- sample(1:nrow(data), floor(.8*nrow(data)))
#===========================================自变量
# 训练数据集(前13列)
train_pred <- data[ inTrain, 6:11]
# 随机样本剩余的数据(前13列)
test_pred <- data[-inTrain, 6:11]
#==========================================因变量(目标变量)
train_resp <- data$NPP[ inTrain]
test_resp <- data$NPP[-inTrain]
#======这一步是为了确定参数,选择怎杨的committees和neighbors值模拟的RMSE可以达到最小
grid <- expand.grid(committees = c(1,10,20,50,100),
neighbors = c(0,1,3,5,7,9))
set.seed(1)
boston_tuned <- train(
x = train_pred,
y = train_resp,
method = "cubist",
tuneGrid = grid,
trControl = trainControl(method = "cv")
#trControl = trainControl(method = "repeatedcv",number = 10,repeats = 10)
)
#------------------trainControl()--------------------------------------
# method表示进行重采样方法 cv:cross validation,number表示 k折交叉验证,repeats表示重复交叉验证的次数
boston_tuned
ggplot(boston_tuned) +
theme(legend.position = "top")
# ================cubistControl()======================
# unbiased:无偏估计,rules:表示规则的最大上限,
# extrapolation:表示最大值最小值外推的上限百分比,比如范围0-100,那训练外推到100+10%,0-10%
# sample:表示80%的样本进行训练,剩下的20%测试,
# seed:随机种子,sample.int(x,size): 表示在1:x之间产生size个随机数,size为整数
# label:表示目标变量
# cubistControl(unbiased = FALSE, rules = 100, extrapolation = 5)
# =================cubist()===========================
# X :表示自变量组成的子集,Y:表示目标变量,
# committees:The committee option can be used to control number of model trees,
# 可以根据上述boston_tuned进行最优选择,control = cubistControl() :训练规则
model_tree = cubist(x = train_pred, y = train_resp)
# ==============summary()=============================
# summary() 表示生产的规则
rule = summary(model_tree)
# sink("test.log", type=c("output", "message")) # 将控制台输出内容保存,即将生成的规则保存用于后续应用
# ===============predict()============================
# predict() 表示对验证数据的预测,用于检验模型的精度
# models 为上述的cubist结果,validation_data[,2:5]为验证数据集,
# neighbors:表示使用多少实例来纠正基于规则的预测? 可以根据上述boston_tuned进行最优选择
model_tree_pred <- predict(model_tree, test_pred)
yanzheng = data.frame(test_resp,model_tree_pred)
sqrt = sqrt(mean((model_tree_pred - test_resp)^2))
cor = cor(model_tree_pred, test_resp)^2
print(cor)
write.csv(yanzheng,"I:\\01-data\\Global\\flux\\FLUXNET2015\\04Result\\RV3_年值03_合并所有年份\\validation_yearly_test.csv",quote =F,row.names = F)
#==============dotplot()==============================
# 输出的是 每一个回归方程的系数以及截距(常数项)在每一个规则上的值
# dotplot(model1,what = "coefs",col = "blue",lwd = 10)
4 结果解读
image.png这是代码生成的模型规则集(rule sets)committees空值模型的数量
针对上述生成的规则,采用python进行栅格结果的确定
网友评论