Logistic Regression是一个二元分类监督算法
cost function
cost function通过误差来衡量算法的好坏
Gradient Descent
需要找到w和b,使得J(w,b)最小,由于J(w,b)是凸函数,所以梯度下降算法是有效的(为学习率)
Logistic Regression derivatives
recap
-
i
其中
finally
最终梯度下降的方程和多元线性回归一致,比较神奇
one vs all
训练多个 Logistic Regression
网友评论