基本形式
![](https://img.haomeiwen.com/i1064595/1c2bb3bf5b20a228.png)
![](https://img.haomeiwen.com/i1064595/aa2f14301c55a29d.png)
线性回归
![](https://img.haomeiwen.com/i1064595/bc1d30808412dd44.png)
![](https://img.haomeiwen.com/i1064595/b841bd813191dba6.png)
![](https://img.haomeiwen.com/i1064595/25a66c27b08bedd5.png)
![](https://img.haomeiwen.com/i1064595/a70d5e7a9e258341.png)
均方差:欧式距离
*这个值是在J最小情况下的参数取值,在吴恩达的视频教学中,就是
,在课后题中有涉及怎样实现单变量的线型回归和多元的线型回归,可以使用梯度下降或者直接使用此公式就能取得较好的预测效果
*满秩矩阵就是R(A) =矩阵的阶数,确保各样本特征都有值,方程能够解,奇异阵就是秩不等于阶数的矩阵,样本属性多于样本个数
![](https://img.haomeiwen.com/i1064595/9e543b7767298cca.png)
后面还将讨论在样本特征缺失情况下的线型回归情况。
*正定矩阵就是特征值全部为正数的矩阵(线型代数137页)
(python sklearn库)reg = linear_model.LinearRegression()
对数几率回归
对数几率回归解决的是二分类的问题
![](https://img.haomeiwen.com/i1064595/d98848fe9fcc34a4.png)
![](https://img.haomeiwen.com/i1064595/d25423cfab41089c.png)
![](https://img.haomeiwen.com/i1064595/92da7bc6caacc7b3.png)
使用极大似然法,在吴恩达讲课中,提到推到方法比较复杂,只需要掌握推到出来的结果即可,在3.26式中,可以分别代入y=1,y=0测试,与3.23和3.24公式一致,目标就是使3.26式最大化
![](https://img.haomeiwen.com/i1064595/e212f61fe91bb7cf.png)
![](https://img.haomeiwen.com/i1064595/e27fbe4c97e78740.png)
上式推导过程:
![](https://img.haomeiwen.com/i1064595/4c0ff5a1b1135bce.png)
使用牛顿法逐次更新:
![](https://img.haomeiwen.com/i1064595/e030e4decd913e16.png)
![](https://img.haomeiwen.com/i1064595/6a2d00febdfeb64b.png)
![](https://img.haomeiwen.com/i1064595/29b1493269c6738b.png)
*在吴恩达的视频中使用的是cost函数:
![](https://img.haomeiwen.com/i1064595/c739e75f0389931a.png)
![](https://img.haomeiwen.com/i1064595/71e2d3dc6761f17e.png)
![](https://img.haomeiwen.com/i1064595/9cbe55564f26eeda.png)
![](https://img.haomeiwen.com/i1064595/54e2eaa3208252ea.png)
同样也是极大似然法得出,这个函数和上面的函数都是凸函数,以下是使用梯度下降的方法进行计算的
![](https://img.haomeiwen.com/i1064595/c737630417c6c254.png)
上面这个中和线型回归的是一致的,只不过h(.)函数不一样。特征缩放同样适用于逻辑回归算法
(python sklearn库中) lr_model = LogisticRegression()
线性判别分析(LDA)
![](https://img.haomeiwen.com/i1064595/1ee011fa34297956.png)
利用的是投影,其中
![](https://img.haomeiwen.com/i1064595/062c65c6b5e5c5e0.png)
![](https://img.haomeiwen.com/i1064595/bbbb252aef9397de.png)
协方差:多维变量,E[(样本值属性1-1均值)(样本属性2-2的均值)……]
E是数学期望,协方差 cov(样本属性1,样本属性2)
![](https://img.haomeiwen.com/i1064595/60c28bd0aa744b4c.png)
![](https://img.haomeiwen.com/i1064595/46e536cfe7f5c99a.png)
||W||表示n维向量的范数,就是长度,线性代数115页,也是
在这里延伸一下,向量的内积
二范数就相当于求距离,这是必须的,平均为了方便求导,当然这里不平方也行,习惯性把平方也加上,距离平方大的距离肯定也大
![](https://img.haomeiwen.com/i1064595/009575459654d71f.png)
![](https://img.haomeiwen.com/i1064595/d65dcb84394432f7.png)
![](https://img.haomeiwen.com/i1064595/b8db2f61ea1fc592.png)
![](https://img.haomeiwen.com/i1064595/cadae0e527549a56.png)
拉格朗日乘子法是在约束条件下求最优化问题的方法。
![](https://img.haomeiwen.com/i1064595/926487aebfd1f8ba.png)
变换成方程,而后通过导数,求最优解,
![](https://img.haomeiwen.com/i1064595/f4bcfea217e23ff3.png)
涉及到矩阵求导的问题,以上是求导公式可以直接用,不用纠结
![](https://img.haomeiwen.com/i1064595/a041d87545fc956b.png)
矩阵奇异值有一篇描述:奇异值分解(SVD)详解及其应用
(奇异值与特征值类似,是用来解决非方阵的降维的问题和化简的问题)
前几天因为工作忙一直没来得及写
多分类学习
![](https://img.haomeiwen.com/i1064595/1625937636ff172a.png)
![](https://img.haomeiwen.com/i1064595/eb8f849b111f1847.png)
吴恩达作业中运用逻辑回归对手写字体识别数据集进行处理,是典型的多分类问题,通过参数矩阵进行计算,其实原理上还是一样,通过特征训练参数,在对应位置上生成概率较大的数值,确定这个手写数字是哪一个,这是一种处理形式。西瓜书中讲解的是编码形式
![](https://img.haomeiwen.com/i1064595/2e6bfe0bb2e63f2d.png)
(备注:海明距离就是看其中有多少编码不对应)
本章最后讲解了最小二乘法:最小化误差的平方和寻找数据的最佳函数匹配,在这一章中充分运用。
![](https://img.haomeiwen.com/i1064595/6f1f5084ecd424b9.jpg)
网友评论