转自个人微信公粽号【易学统计】的统计学习笔记:R语言pec包深度验证Cox模型
研究背景
在cox回归中,如何利用已经构建好的预测模型预测单个患者的生存概率呢?R中的pec包中predictSurvProb()函数可以利用cph()拟合的模型计算验证集中患者在不同时间节点的生存概率。其次该包还能在验证集中计算不同时间点C-index指数,绘制成图,比较验证集在不同模型中的C-index,通过交叉验证评估不同模型的区分度,除此以外该包还能将2个模型的校准度曲线绘制在同一个坐标系中,非常好用的包。
案例研究
本文数据采用一份肿瘤生存资料数据集,收集了449例癌症患者的生存资料,包含患者年龄、性别、吸烟史、生化检验、生存时间、生存状态等45个变量。本文利用Lasso回归做变量选择,构建cox预测模型,通过pec包验证区分度和校准度。
R代码及解读
##加载包 明确每个包的作用
library(pec) ##验证模型
library(rms) ##拟合生存分析模型
library(survival) ##生存分析包
library(glmnet) ##Lasso回归包
第一步,数据整理。
#调用数据,数据格式与普通的spss中格式一样,一行代表一条观测,
dt<-read.csv('C:work/20190128.csv',na = c("", "NA")) ## 加载数据集
vartype<- read.csv('C:/work/vartype.csv'); ##数据变量类型,0为数值型,其他为因子型
vartype<- vartype[,1]
###transdata 自编小函数 转化数据结构
transData <- function(df,vartype){
for (i in 1:length(vartype)) {
if(vartype[i]==0){df[,i]<-as.numeric(df[,i])}
else if(vartype[i]!=0){df[,i]<-as.factor(df[,i])}
}
return(df)
}
df<- transData(dt,vartype)
str(df) ## 查看数据结构
dt <- na.omit(df) ##整行删除含有缺失值患者
第二步:Lasso回归做变量选择
##筛选变量前,首先将自变量数据(因子变量)转变成矩阵(matrix)
x.factors <- model.matrix(~ dt$oper.name+dt$relapse+dt$group.tumor.dia+dt$sex+dt$age.group+dt$region+dt$smoking+dt$group.hepth.medical.his+dt$group.ther.be.op+dt$BCLC+dt$group.melt.time+dt$tumor.single.double+dt$group.tumor.num+dt$group.tumor.size+dt$group.tumor.location+dt$AFP+dt$CEA+dt$CA199,dt)[,-1]
#将矩阵的因子变量与其它定量边量合并成数据框,定义了自变量。
x=as.matrix(data.frame(x.factors,dt[,c(21:44)]))
#设置应变量,生存时间和生存状态(生存数据)
y <- data.matrix(Surv(dt$live.time,dt$outcome))
#调用glmnet包中的glmnet函数,注意family那里一定要制定是“cox”,如果是做logistic需要换成"binomial"。
fit <-glmnet(x,y,family = "cox",alpha = 1)
plot(fit,label=T)
plot(fit,xvar="lambda",label=T) ##见图一
#主要在做交叉验证,lasso
fitcv <- cv.glmnet(x,y,family="cox", alpha=1,nfolds=10)
plot(fitcv) ## 见图2
print(fitcv) ## 1个标准差对应变量少,选此收缩系数
## Lambda Measure SE Nonzero
## min 0.02632 11.96 0.2057 21
## 1se 0.11661 12.15 0.1779 5
coef(fitcv, s="lambda.1se") ## 查看入选变量,后面有数字的为入选变量
##此处关于Lasso的解释可看公众号之前推的文章。
## 47 x 1 sparse Matrix of class "dgCMatrix"
## 1
## dt.oper.name2 .
## dt.relapse1 0.4400809
## dt.group.tumor.dia2 .
## dt.group.tumor.dia3 .
## dt.sex1 .
## dt.age.group2 .
## dt.region2 .
## dt.smoking1 .
## dt.group.hepth.medical.his1 .
## dt.group.ther.be.op1 .
## dt.BCLC2 0.1037029
## dt.BCLC3 -0.1612514
## dt.group.melt.time2 .
## dt.group.melt.time3 .
## dt.tumor.single.double2 0.1797434
## dt.group.tumor.num2 .
## dt.group.tumor.num3 .
## dt.group.tumor.size2 .
## dt.group.tumor.location2 .
## dt.AFP2 .
## dt.AFP3 0.2251439
## dt.CEA2 .
## dt.CA1992 .
## inpatient.days .
## differ1.WBC .
## differ1.N. .
## differ1.HGB .
## differ1.PLT .
## differ1.Alb .
## differ1.ALT .
## differ1.AST .
## differ1.TB .
## differ1.DB .
## differ1.Scr .
## differ1.PT .
## differ1.APTT .
## differ1.INR .
## differ2.WBC .
## differ2.N .
## differ2.HGB .
## differ2.PLT .
## differ2.Alb .
## differ2.ALT .
## differ2.AST .
## differ2.TB .
## differ2.DB .
## differ2.Scr
Lasso变量筛选图.png
Lasso收缩曲线图.png
第三步:随机拆分数据集为训练集和测试集
set.seed(1234)
x <- nrow(dt) %>% runif()
## 随机生成449个生成从0到1区间范围内的服从正态分布的随机数
dt <- transform(dt,sample= order(x))%>% arrange(sample)
###随机排列数据集样本
###拆分数据集
train <- dt[1:((nrow(dt)-1)/2),-45]
test <- dt[((nrow(dt)+1)/2):nrow(dt),-45]
第四步:构建模型
#### Lasso回归筛选出来 变量
#### relapse BCLC tumor.single.double AFP
### cox1 为全模型
cox1 <- cph(Surv(live.time,outcome==1)~.,x=T,y=T,data=train, surv=TRUE)
### cox2 诶筛选变量搭建的模型
cox2 <- cph(Surv(live.time,outcome==1)~relapse+BCLC+tumor.single.double+AFP,x=T,y=T,data=train,surv=TRUE)
第五步:预测生存概率
### 设置预测生存概率的时间点,根据模型预测患者1年,3年和5年的生存概率。
t <- c(1*365,3*365,5*365)
survprob <- predictSurvProb(cox1,newd=test,times=t)
head(survprob)
### 365 1095 1825
### 225 0.9837627 0.9448162 0.8785664
### 226 0.9677175 0.8924489 0.7714278
### 227 0.9522695 0.8440149 0.6792448
### 228 0.9409147 0.8096285 0.6177702
### 229 0.7941521 0.4496941 0.1615871
### 230 0.8204438 0.5034604 0.2090600
第六步:模型区分度对比和验证
## eval.times 输入评价模型区分能力的时间点向量,缺少的话系统认为是最大生存时间
## 此时相当于单个时间点评估,同之前文章中求的模型concordance
## 这个就是优于rms的一个点,可以对每个时间点比较。
c_index <- cindex(list("Cox(43 variables)"=cox1, "Cox(4 variables)"=cox2),
formula=Surv(live.time,outcome==1)~.,
data=test,
eval.times=seq(365,5*365,36.5))
## 设置画图参数
##mar 以数值向量表示的边界大小,顺序为“下、左、上、右”,单位为英分*。
##默认值为c(5, 4, 4, 2) + 0.1
##mgp 设定标题、坐标轴名称、坐标轴距图形边框的距离。默认值为c(3,1,0),
##其中第一个值影响的是标题
## cex.axis 坐标轴刻度放大倍数
## cex.main 标题的放大倍数
## legend.x,legend.y 图例位置的横坐标和纵坐标
## legend.cex 图例文字大小
par(mgp=c(3.1,0.8,0),mar=c(5,5,3,1),cex.axis=0.8,cex.main=0.8)
plot(c_index,xlim = c(0,2000),legend.x=1,legend.y=1,legend.cex=0.8)
C-index验证1.png
上图表明cox2模型的区分度略好于cox1模型,可以进一步做交叉验证的方式比较两个模型的区分度。在验证集中,同时采用bootstrap重抽样法进行交叉验证。
##splitMethod 拆分方法 ="bootcv"表示采用重抽样方法
##B表示重抽样次数
c_index <- cindex(list("Cox(43 variables)"=cox1, "Cox(4 variables)"=cox2),
formula=Surv(live.time,outcome==1)~.,
data=test,
eval.times=seq(365,5*365,36.5),
splitMethod="bootcv",
B=1000)
plot(c_index,xlim = c(0,2000),legend.x=1,legend.y=1,legend.cex=0.8)
C-index验证2.png
上图表明含有4个变量的模型区分度要好于全模型,模型更加简洁,也从侧面印证前面的Lasso变量筛选是合适的。
第七步:校准曲线绘制
##该函数和rms包中的calibrate()函数原理一致。
calPolt1 <- calPlot(list("Cox(43 variables)"=cox1,
"Cox(4 varia8bles)"=cox2),
time=3*365,#设置想要观察的时间点,同理可以绘制其他时间点的曲线
data=test,legend.x=0.5,
legend.y=0.3,legend.cex=0.8)
print(calPolt1) ##查看内容
校准曲线1.png
同理在验证集中,同时采用bootstrap重抽样法进行交叉验证,提高结果稳定性。
calPolt2 <- calPlot(list("Cox(43 variables)"=cox1,
"Cox(4 variables)"=cox2),
time=3*365,#设置想要观察的时间点
data=test,legend.x=0.5,
legend.y=0.3,legend.cex=0.8,
splitMethod = "BootCv",
B=1000)
校准曲线2.png
上图表明含有4个变量的模型校准度要好于全模型
总结
1.关于Lasso回归的原理和函数的参数说明,请查看本公众号之前的文章如何进行高维变量筛选和特征选择(一)?Lasso回归。
2.cindex()函数可以评估每个时间点的区分能力,并且可以将2个模型的区分度画到一个坐标里面,这优于rms包的区分度计算。calplot()函数可以画出模型的校准曲线,且可以将多个模型画到同一坐标系。
3.Bootstrap是用小样本估计总体值的一种非参数方法,其核心思想是
①采用重抽样的方法,从原始样本中有放回的抽取一定数量的样本,②根据抽到的样本计算给定的统计量T,③重复抽样N次(一般1000次),得到N个统计量T,④计算N个统计量T的样本方差,得到统计量方差。例如,要进行1000次bootstrap,求平均值的置信区间,可以对每个伪样本计算平均值。这样就获得了1000个平均值。对1000个平均值的分位数进行计算, 即可获得置信区间。已经证明,在初始样本足够大的情况下,bootstrap抽样能够无偏得接近总体的分布。
4.Bootstrap重抽样和交叉验证的区别。其相同之处,都是在数据集较小的时候常用的方法,提高结果的稳定性。不同之处,其一,两者的目的不同。CV主要用于模型选择上,例如KNN中选多大的K,使得估计的误差比较小。而Bootstrap主要用来看选定的模型的不确定性,例如参数的标准差多大。其二,两者的resample方法不同。在k fold CV中,把原始数据集分成k等分(各等分之间没交集),每一次验证中,把其中一份作为验证集,剩余的作为训练集。而在Bootstrap中,并不区分验证集和训练集,并且在resample中,是可放回抽样的,即同一个样本可以重复出现。
以上就是本次分享的内容了。后面还有更多高分统计方法分享,请持续关注哦~
如果您觉得有用,请点赞,转发哦~
更多统计小知识,请关看 公粽号 易学统计
更多阅读
R语言|Cox模型校准度曲线绘制
R语言|中位生存时间列线图绘制
基于Lasso回归筛选变量构建Cox模型并绘制Nomogram
R语言Logistic回归模型验证及Nomogram绘制
如何进行高维变量筛选和特征选择(一)?Lasso回归
网友评论