Week1

作者: Jedore | 来源:发表于2018-10-17 21:29 被阅读0次
  • 监督学习 Supervised Learning
    数据集有明确的答案,根据样本数据预测
    分类问题
    回归问题
  • 无监督学习 Unsupervised Learning
    数据集没有答案,自动分局特征分类
  • 单变量线性回归 Linear Regression With One Variable
    • 模型表示 h_\theta(x)=\theta_0+\theta_1x
      代价函数 J(\theta_0,\theta_1)=\frac{1}{2m}\sum^m_{i=1}(h_\theta(x^{(i)})-y^{(i)})^2
    • 梯度 gradient
      梯度就是偏导数, 而斜率是梯度的一个特例
    • 梯度下降 Gradient Descent
      对于一个可微分的函数,确定一组初始值,找到这组值对应的梯度,然后在梯度相反的方向对这组值进行减小,通过不断的寻找梯度并减小这组值,最后找到使函数值最小的组合值
    • 批量梯度下降 Batch Gradient Descent
      在梯度下降的每一步中都使用了所有的样本,得到的是一个全局最优解,如果训练样本过大,那么迭代速度则会过慢
      \theta_j:=\theta_j-\alpha\frac{\delta} {\delta\theta_j}J(\theta_0,\theta_1) \ (for j=0\ and\ j=1)
    • 随机梯度下降 Stochastic Gradient Descent
      在梯度下降的每一步中选取一个样本来求取梯度,并不是每一步都是全局最优解,但整体方向是全局最优的,最后可能会在全局最优解附近,由于只使用了部分样本,速度较快
      \theta_j=\theta_j-\alpha\frac{\delta}{\delta\theta_j}(h_{\theta}(x^{(i)}) - y^{(i)})^2
    • 线性回归运用梯度下降
      j=0, \frac{\delta}{\delta\theta_0}J(\theta_0,\theta_1)=\frac{1}{m}\sum^m_{i=1}(h_\theta(x^{(i)})-y^{(i)})
      j=1, \frac{\delta}{\delta\theta_1}J(\theta_0,\theta_1)=\frac{1}{m}\sum^m_{i=1}(( h_\theta(x^{(i)})-y^{(i)})*x^{(i)})
      改写为
      \theta_0:=\theta_0-\alpha\frac{1}{m}\sum^m_{i=1}(h_\theta(x^{(i)})-y^{(i)})
      \theta_1:=\theta_1-\alpha\frac{1}{m}\sum^m_{i=1}((h_\theta(x^{(i)})-y^{(i)})*x^{(i)})
  • 深入浅出-梯度下降法及其实现
  • Gradient
  • 机器学习-随机梯度下降(Stochastic gradient descent)和 批量梯度下降(Batch gradient descent)

相关文章

网友评论

      本文标题:Week1

      本文链接:https://www.haomeiwen.com/subject/myurzftx.html