二、线性回归分析
(1)菜单选择
Statistics-Linear regression and related-Linear regression 线性回归
Statistics-Linear regression and related-Regression diagnostics 回归诊断
Statistics-Post-estimation-Predictions,residuals,etc 取得预测值、残差等
Graphics-Overlaid twoway graphs 叠并二维图
Statistics-Longitudinal/panel data 纵贯及面板数据
(2)命令示范
regress y x 执行y对单个预测变量x的常规最小二乘法回归
regress y x if ethnic==3&income>50 执行y对x的回归,但只使用ethnic等于3且income大于50的数据子集
predict yhat 创建一个新变量yhat,令其等于最近回归所得到的预测值
predict e, resid 创建一个新变量e,令其等于最近回归得到的残差
graph twoway lfit y x || scatter y x 画出y相对于x的散点图(scatterplot),并加入简单回归线(lfit,即线性拟合)
graph twoway mspline yhat x || scatter y x 在y对x的散点图上画简单回归线,(用修匀的立方样条曲线)连接回归预测值yhat
rvfplot 自动采用最近的回归分析结果画出残差对拟合值(即预测值)的标绘图(residual versus fitted plot)
graph twoway scatter e yhat, yline(0) 用变量e和yhat画出残差对预测值的标绘图(residual versus predicted values plot)
regress y x1 x2 x3 多元回归
regress y x1 x2 x3, robust 计算稳健标准误的(Huber/White法)估计值。
regress y x1 x2 x3, beta 多元回归,并将标准化回归系数(β权数)包含在输出表中
test x1 x2 执行F检验,零假设为:在最近的回归模型中,x1和x2的系数都等于0
sw regress y x1 x2 x3, pr(.05)
执行反向剔除的逐步回归,直到所有保留的预测变量都在0.05水平上显著。所有列表上的预测变量都将进入第一次迭代,此后每一步迭代去掉p值最高的预测变量,直到所有保留下来的预测变量的概率值在“保留概率”以下为止,这就是pr(.05)选项的意义。(help sw)
regress y x1 x2 x3 [aweight=w] 加权最小二乘回归
regress y1 y2 x (x z)
regress y2 y1 z (x z)
工具变量x和z估计y1和y2之间的相互作用,括号中包含所有方程中的外生变量。
网友评论