向量范数
范数
- 非零元素个数
如果我们使用
来规则化参数向量w,就是希望w的元素大部分都为零。
范数的这个属性,使其非常适用于机器学习中的稀疏编码。在特征选择中,通过最小化
范数来寻找最少最优的稀疏特征项。
但是,
范数的最小化问题是 NP 难问题。而
范数是
范数的最优凸近似,它比
范数要更容易求解。因此,优化过程将会被转换为更高维的范数(例如
范数)问题。
范数
- 向量中各个元素绝对值之和,也被称作“Lasso regularization”(稀疏规则算子)
在最小化目标函数的时候考虑一些不重要的特征,虽然可以获得更小的训练误差,但在预测新的样本时可能会产生过拟合。稀疏规则化算子的引入就是为了完成特征自动选择,去掉信息较少的特征,也就是把这些特征对应的权重置为0。
范数
-
范数可以防止过拟合
范数是指向量各元素的平方和然后求平方根。我们让
范数的规则项最小,可以使得的每个元素都很小,都接近于0,但与
范数不同,它不会让它等于0,而是接近于0。
这是有很大的区别的。而越小的参数说明模型越简单,越简单的模型则越不容易产生过拟合现象。因为当限制了参数很小,实际上就限制了多项式某些分量的影响很小,这样就相当于减少参数个数。
通过L2范数,我们可以实现了对模型空间的限制,从而在一定程度上避免过拟合。
-范数
范数
- 其中正整数
,且
矩阵范数
1-范数
- 列和范数,所有矩阵列向量绝对值之和的最大值。
2-范数
-
,
为
的最大特征值
-
谱范数,即
矩阵的最大特征值的平方根。
范数
- 行和范数,即所有矩阵行向量绝对值之和的最大值
核范数
-
,
的A的奇异值
- 奇异值之和
F-范数(矩阵的
范数)
- Frobenius范数,即矩阵元素绝对值的平方和的平方跟
矩阵的
范数
- 矩阵的非0元素的个数
- 通常用它来表示稀疏,L0范数越小0元素越多,也就越稀疏。
矩阵的
范数
- 矩阵中的每个元素绝对值之和
- 是L0范数的最优凸近似,因此它也可以近似表示稀疏;
矩阵的
范数
- 矩阵X每一行的
范数之和
网友评论