美文网首页遥感
CART ( Classification and regres

CART ( Classification and regres

作者: 单酒窝小可爱 | 来源:发表于2020-05-13 11:17 被阅读0次

    分类与回归树(CART)方法是一种机器学习方法,具有很好的数据拟合性、较高的R2值和较低的RMSE,是一种很好的探索性方法,其目的是确定分类与预测规则。CART以其高精度和高性能在不同的工程领域得到了广泛的应用。具体介绍就不在赘述,可以参考百度(有很多),这里直接上代码。本实例以我的研究为例。主要工具是采用R语言包进行结果的输出。

    主要步骤:

    1 首先主要采用的是R语言中的Cubist包,输入代码前要先进行安装,install.packet('Cubist'),安装成功后可直接运行。

    2 数据准备:

    这一步相对比较简单,将因变量与自变量按列排列即可,该实例中自变量既可以是数值形式也可以是文本形式,如下数据格式:


    image.png

    3 复制代码,注意修改自己的路径。下述代码将原始数据分为test和train两部分,结合自身情况可以进一步输出。

    library(Cubist)
    library(caret)
    setwd("I:\\01-data\\Global\\flux\\FLUXNET2015\\04Result\\RV3_年值03_合并所有年份\\")
    data = read.csv("I:\\01-data\\Global\\flux\\FLUXNET2015\\04Result\\RV3_年值03_合并所有年份\\NPP_yearly.csv",header = T)
    
    set.seed(1) # 设置种子,保证生成的随机数不发生变化
    inTrain <- sample(1:nrow(data), floor(.8*nrow(data)))
    
    #===========================================自变量
    # 训练数据集(前13列)
    train_pred <- data[ inTrain, 6:11]
    # 随机样本剩余的数据(前13列)
    test_pred  <- data[-inTrain, 6:11]
    #==========================================因变量(目标变量)
    train_resp <- data$NPP[ inTrain]
    test_resp  <- data$NPP[-inTrain]
    
    #======这一步是为了确定参数,选择怎杨的committees和neighbors值模拟的RMSE可以达到最小
    grid <- expand.grid(committees = c(1,10,20,50,100),
                        neighbors = c(0,1,3,5,7,9))
    set.seed(1)
    boston_tuned <- train(
      x = train_pred,
      y = train_resp,
      method = "cubist",
      tuneGrid = grid,
      trControl = trainControl(method = "cv")
      #trControl = trainControl(method = "repeatedcv",number = 10,repeats = 10) 
      )
    #------------------trainControl()--------------------------------------
    # method表示进行重采样方法 cv:cross validation,number表示 k折交叉验证,repeats表示重复交叉验证的次数
    boston_tuned
    ggplot(boston_tuned) +
      theme(legend.position = "top")
    
    # ================cubistControl()======================
    # unbiased:无偏估计,rules:表示规则的最大上限,
    # extrapolation:表示最大值最小值外推的上限百分比,比如范围0-100,那训练外推到100+10%,0-10%
    # sample:表示80%的样本进行训练,剩下的20%测试,
    # seed:随机种子,sample.int(x,size): 表示在1:x之间产生size个随机数,size为整数
    # label:表示目标变量
    
    # cubistControl(unbiased = FALSE, rules = 100, extrapolation = 5)
    
    # =================cubist()===========================
    # X :表示自变量组成的子集,Y:表示目标变量,
    # committees:The committee option can be used to control number of model trees,
    # 可以根据上述boston_tuned进行最优选择,control = cubistControl() :训练规则
    model_tree = cubist(x = train_pred, y = train_resp) 
    
    # ==============summary()=============================
    # summary() 表示生产的规则
    rule = summary(model_tree)
    # sink("test.log", type=c("output", "message"))  # 将控制台输出内容保存,即将生成的规则保存用于后续应用
    
    # ===============predict()============================
    # predict() 表示对验证数据的预测,用于检验模型的精度
    # models 为上述的cubist结果,validation_data[,2:5]为验证数据集,
    # neighbors:表示使用多少实例来纠正基于规则的预测? 可以根据上述boston_tuned进行最优选择
    model_tree_pred <- predict(model_tree, test_pred)
    yanzheng = data.frame(test_resp,model_tree_pred)
    sqrt = sqrt(mean((model_tree_pred - test_resp)^2))
    cor = cor(model_tree_pred, test_resp)^2
    print(cor)
    write.csv(yanzheng,"I:\\01-data\\Global\\flux\\FLUXNET2015\\04Result\\RV3_年值03_合并所有年份\\validation_yearly_test.csv",quote =F,row.names = F)
    
    #==============dotplot()==============================
    # 输出的是 每一个回归方程的系数以及截距(常数项)在每一个规则上的值
    # dotplot(model1,what = "coefs",col = "blue",lwd = 10)
    
    

    4 结果解读

    image.png

    这是代码生成的模型规则集(rule sets)committees空值模型的数量
    针对上述生成的规则,采用python进行栅格结果的确定

    相关文章

      网友评论

        本文标题:CART ( Classification and regres

        本文链接:https://www.haomeiwen.com/subject/kttnnhtx.html