方法一:一列列选择我们要用的变量,防止我们有太多无关的变量
先选一列最佳的,是的argmin最小,y-预测的y
然后确定了之后再确定第二列变量我们想要选的,同样使得argmin
直到我们的SSEn - SSE n-1 < 某个阈值
方法二:Ridge Regression
岭回归通过收缩参数λ(lambda)解决多重共线性问题。请看下面的等式:
L2=argmin||y-xw||+λ||w||^2
L1=argmin||y-xw||+λ||w||
Lasso 回归与Ridge回归有一点不同,它使用的惩罚函数是L1范数,而不是L2范数。这导致惩罚(或等于约束估计的绝对值之和)值使一些参数估计结果等于零。使用惩罚值越大,进一步估计会使得缩小值越趋近于零。这将导致我们要从给定的n个变量中选择变量。
网友评论