http://write.blog.csdn.net/mdeditor#!postId=77852727
2.1 二分分类
二分类例子:
判断图片中是否有猫:
将图片RGB矩阵拉伸为向量:


使用上面的特征向量来判断图片中是否有猫。
2.2 logistic 回归



2.3 logistic 回归损失函数
这里给出的是交叉熵损失函数:

2.4 梯度下降法
为了最小化代价函数,找到 w,b 的最优解

对 代价函数对 w,b 求导,再根据学习率,更新 w 和 b :

2.5 到 2.8 是非常基础的导数讲解,这里就不做笔记了。
2.9 logistic 回归中的梯度下降法

2.10 m 个样本的梯度下降

计算步骤为:

2.11 向量化
我们讲上述的计算步骤向量化:

向量化 和 循环的代码对比:

我们可以看到向量化比循环的代码快了300倍左右。
2.12 向量化的更多例子


回到我们梯度下降的步骤,将其改为向量化:

2.13 向量化 logistic 回归

2.14 向量化 logistic 回归的梯度输出
进一步向量化 logistic 回归:

进一步向量化 梯度下降:

2.15 Python 中的广播
例子:
计算事物的能量成分比例:

python 代码如下:

axis = 0,列相加;axis = 1,行相加。
其他例子:

总结:

2.16 关于 python / numpy 向量的说明


网友评论