模型表示-线性回归
m:训练样本集大小, size of Training Set
x's:输入/特征
y's:输出
(xi,yi)对应一个训练样本i
我们需要一个算法algorithm,根据Training Set,
Hypothesis
Parameters
Cost function
平方误差函数,解决回归问题的最常用手段
Goal
minimize cost function
Approach
Gradient Descent 梯度下降法
repeat until convergence {
}
要同时更新,
是学习速率 Learning Rate
太小会导致梯度下降很慢,太大则可能越过局部最小值点,甚至无法收敛
如果函数的导数在其局部最小值处连续,则下降的step也会随着的斜率的变化而不断减小,最终,梯度下降法能够自动收敛到最近的局部最小值点,而不必调小
Multiple Feature Linear Regression
repeat until convergence {
,其中
}
Feature Scaling:特征缩放
多特征的线性回归中,如果多个输入矩阵的每个维度的取值范围差距太大,譬如,而
,这样会导致梯度下降过程中在
方向上来回摇摆,即梯度下降太慢。可以用
代替
Mean normalization:值归一化
,其中
是
的平均值,
网友评论