美文网首页机器学习与模式识别Machine Learning & Data Analysis
SPSS中Logistic(或COX)回归自变量筛选方法

SPSS中Logistic(或COX)回归自变量筛选方法

作者: StatsHuo | 来源:发表于2015-12-20 19:31 被阅读4788次

    SPSS提供了6中筛选自变量的方法,向前法(Forward)有三种,即一般统计学书上所说的逐步回归,这三种向前法选入自变量时均采用比分检验,但剔除自变量的标准不同。分别为:条件参数估计似然比检验(向前:条件)、最大偏似然估计的似然比检验(向前:LR)、Wald卡方检验(向前:Wald)。向后法(Backward)也有三种,分别采用上述3种方法之一进行变量的剔除。

    筛选自变量的方法:

    • 条件参数估计似然比检验(向前:条件)
    • 最大偏似然估计的似然比检验(向前:LR)
    • Wald卡方检验(向前:Wald)
    • 条件参数估计似然比检验(向后:条件)
    • 最大偏似然估计的似然比检验(向后:LR)
    • Wald卡方检验(向后:Wald)

    值得注意的地方:

    (1)基于条件参数估计和最大偏似然估计的筛选方法都比较可靠,尤以后者为佳。但基于Walds统计量的检验则不然,它实际上未考虑各因素的综合作用,当因素间存在共线性时,结果不可靠,故应当慎用。参数的可信区间也是基于Walds统计量计算的,故也慎用。

    (2)还需要注意的是,逐步回归所获得的结果是保证此时获得的模型最大似然函数值最大,但并不能保证此时的模型其预测精度最高。最终模型的选择仍需要获得专业理论的支持。

    (3)事实上,在统计之上,另一个更重要的准则是专业意义,比如种族、吸烟在统计学上没有意义,但如果在专业上认为种族、吸烟确实有作用,也可以将其强行纳入模型。也就是说,判断一个变量是否可纳入模型的标准由弱至强依次应当是:单自变量分析、多自变量分析、专业判断。

    相关文章

      网友评论

        本文标题:SPSS中Logistic(或COX)回归自变量筛选方法

        本文链接:https://www.haomeiwen.com/subject/ehlmhttx.html