美文网首页特征变量选择生物信息学与算法R生信
比较三种机器学习模型(随机森林,支持向量机,逻辑回归)的分类效果

比较三种机器学习模型(随机森林,支持向量机,逻辑回归)的分类效果

作者: PriscillaBai | 来源:发表于2019-03-21 21:14 被阅读412次

    这是2014年发表在nature communication上的一张图,大意如下:
    a:作者想用181个假基因预测癌症亚型,将306个样本分成训练集(223个),验证集(83个)
    b: 用训练集的数据(n=223)进行分析,采用五折交叉验证避免过拟合,选用随机森林,支持向量机,逻辑回归三种机器学习方法进行分类。
    c: 三种机器学习方法的AUC曲线,发现SVM的效果最好。(AUC=0.962)
    d: 用整个训练集(n=223)对验证集(n=83)进行分析,用SVM进行分类,AUC为0.922。
    (原文题目:The Pan-Cancer analysis of pseudogene expression reveals biologically and clinically relevant tumour subtypes)

    我把这个思路搬运到我的课题里,复现图如下:

    相似度:75%。a和b是用AI画的,所以今天分享下c和d的代码

    一 差异分析

    假设我们有了这样的一个表达矩阵,叫Expr_all。以及表示表型数据的temp (character)。差异分析你可以用DESeq,但本次我就用T检验。


    temp
    ##转置
    Expr_all<-t(Expr_all)
    ##将每列变成numeric
    Expr_all[,1]<-as.numeric(Expr_all[,1])
    for(i in 2:535){Expr_all[,i]<-as.numeric(Expr_all[,i])}
    ##T检验
    pvalue<-sapply(1:266,function(i){t.test(Expr_all[which(temp=="cancer"),i],Expr_all[which(temp=="normal"),i])[[3]]})
    ##将T检验得到的P值进行矫正,降低假阳性
    pvalue1<-p.adjust(pvalue1)
    ##挑出P<0.05的基因
    t_expr<-Expr_all[,which(pvalue1<0.05)]
    t_expr<-as.data.frame(t_expr)
    t_expr<-t(t_expr)
    t_expr<-cbind(temp,t_expr)
    

    得到的t_expr矩阵如下


    t_expr

    二 构建三种机器学习模型

    1. 划分训练集和验证集

    library(randomForest)
    library(caret)
    library(pROC)
    library(caret)
    inTrain<-createDataPartition(y=t_expr[,1],p=0.25,list=F)
    test<-t_expr[inTrain,]
    train<-t_expr[-inTrain,]
    

    2. 构建五折交叉验证RF模型

    folds<-createFolds(y=train[,1],k=5)
    fc<-as.numeric()
    mod_pre<-as.numeric()
    for(i in 1:5){
      fold_test<-train[folds[[i]],]
      fold_train<-train[-folds[[i]],]
      model<-randomForest(temp~.,data=fold_train,proximity=T,importance=T)
      model_pre<-predict(model,newdata = fold_test,type="prob")
      fc<-append(fc,as.numeric(fold_test$temp))
      mod_pre<-append(mod_pre,model_pre[,1])
    }
    df<-cbind(fc,as.numeric(mod_pre))
    

    3. 构建五折交叉验证SVM模型

    fc<-as.numeric()
    mod_pre<-as.numeric()
    for(i in 1:5){
      fold_test<-t_expr[folds[[i]],]
      fold_train<-t_expr[-folds[[i]],]
      model<-svm(temp~.,data=fold_train,probability=T)
      model_pre<-predict(model,newdata = fold_test,decision.values = TRUE, probability = TRUE)
      fc<-append(fc,as.numeric(fold_test$temp))
      mod_pre<-append(mod_pre,as.numeric(attr(model_pre, "probabilities")[,2]))
    }
    df<-cbind(df,cbind(fc,mod_pre))
    

    4. 构建五折交叉验证LR模型

    max=0
    num=0
    fc<-as.numeric()
    mod_pre<-as.numeric()
    for(i in 1:5){
      fold_test<-train[folds[[i]],]
      fold_train<-train[-folds[[i]],]
      model<-glm(temp~.,family=binomial(link=logit),data=fold_train)
      model_pre<-predict(model,type='response',newdata=fold_test)
      fc<-append(fc,fold_test$temp)
      mod_pre<-append(mod_pre,as.numeric(model_pre))
    }
    df<-cbind(df,cbind(fc,mod_pre))
    

    5. 画三者的AUC曲线

    pdf("/Users/baiyunfan/desktop/ROC.pdf",height=6,width=6)
    mycol <- c("slateblue","seagreen3","dodgerblue","firebrick1","lightgoldenrod","magenta","orange2")
    x<-plot.roc(df[,1],df[,2],
                smooth=F,
                lwd=2,
                ylim=c(0,1),
                xlim=c(1,0),
                legacy.axes=T,
                main="",
                col=mycol[2])
    x<-plot.roc(df[,3],df[,4],
                smooth=F,
                add=T,
                lwd=2,
                ylim=c(0,1),
                xlim=c(1,0),
                legacy.axes=T,
                main="",
                col=mycol[3])
    x<-plot.roc(df[,5],df[,6],
                smooth=F,
                add=T,
                lwd=2,
                ylim=c(0,1),
                xlim=c(1,0),
                legacy.axes=T,
                main="",
                col=mycol[4])
    
    legend.name <- c(paste("RF","AUC",0.9836,sep=" "),paste("SVM","AUC",0.9903,sep=" "),paste("LR","AUC",0.9986,sep=" "))
    legend("bottomright", 
           legend=legend.name,
           col = mycol[2:4],
           lwd = 2,
           bty="n")
    dev.off()
    

    发现LR的AUC最高,于是单拿出来用整个train对test画

    6. 用整个训练集对验证集建立LR模型以及AUC曲线

    model<-glm(temp~.,data=train,family=binomial(link=logit))
    model_pre<-predict(model,type='response',newdata=test)
    pdf("/Users/baiyunfan/desktop/RF.pdf",height=6,width=6)
    x<-plot.roc(test[,1],model_pre,
                smooth=F,
                lwd=2,
                ylim=c(0,1),
                xlim=c(1,0),
                legacy.axes=T,
                main="",
                col=mycol[4])
    legend.name <- paste("LR","AUC",0.9557,sep=" ")
    legend("bottomright", 
           legend=legend.name,
           col = mycol[4],
           lwd = 2,
           bty="n")
    dev.off()
    

    AUC掉下来了,0.9557,大家来探讨下为什么吧~

    相关文章

      网友评论

        本文标题:比较三种机器学习模型(随机森林,支持向量机,逻辑回归)的分类效果

        本文链接:https://www.haomeiwen.com/subject/tlchvqtx.html