《深度学习Ng》课程学习笔记01week2——神经网络基础

作者: 033a1d1f0c58 | 来源:发表于2017-09-05 16:10 被阅读108次

http://write.blog.csdn.net/mdeditor#!postId=77852727

2.1 二分分类

二分类例子:
判断图片中是否有猫:
将图片RGB矩阵拉伸为向量:



使用上面的特征向量来判断图片中是否有猫。

2.2 logistic 回归

2.3 logistic 回归损失函数

这里给出的是交叉熵损失函数:

2.4 梯度下降法

为了最小化代价函数,找到 w,b 的最优解


对 代价函数对 w,b 求导,再根据学习率,更新 w 和 b :

2.5 到 2.8 是非常基础的导数讲解,这里就不做笔记了。

2.9 logistic 回归中的梯度下降法

2.10 m 个样本的梯度下降

计算步骤为:

2.11 向量化

我们讲上述的计算步骤向量化:

向量化 和 循环的代码对比:

我们可以看到向量化比循环的代码快了300倍左右。

2.12 向量化的更多例子


回到我们梯度下降的步骤,将其改为向量化:

2.13 向量化 logistic 回归

2.14 向量化 logistic 回归的梯度输出

进一步向量化 logistic 回归:

进一步向量化 梯度下降:


2.15 Python 中的广播

例子:
计算事物的能量成分比例:

python 代码如下:

axis = 0,列相加;axis = 1,行相加。

其他例子:

总结:

2.16 关于 python / numpy 向量的说明

这里写图片描述

相关文章

网友评论

    本文标题:《深度学习Ng》课程学习笔记01week2——神经网络基础

    本文链接:https://www.haomeiwen.com/subject/lhvujxtx.html