美文网首页
CS229-2线性回归问题

CS229-2线性回归问题

作者: Aptitude | 来源:发表于2018-07-29 21:42 被阅读0次

    线性回归问题

    Background回归问题中以影响房价的因素为例进行阐述。

    1)Living areas对price的影响;

    2)Living area和bedrooms对price的影响。

    (在这里增加bedrooms因素的原因是多输入产生输出,体现了多特征性)

    (此处应该有散点图的绘制,然而还没有找到完整数据和安装MATLAB,只好暂且省略。)

    Some conception: 输入量x(在这里是living area、bedrooms)称为输入特征,输出y(在这里为price)为要预测的值,一组(x, y)称为training example, m个 training example为training set。另外还有一个假设的函数h。

    Architecture


    The difference of regression and classification:

    要预测的输出值是连续的值被称为回归问题;

    要预测的输出值是离散的值被称为分类问题。

    The following is main body

    在线性回归问题中首先定义了一个预测函数h,解决线性回归问题也就是得到这个h(x),如下:

    因此得到h(x)转化为如何求得θ的值的问题,再换个角度就是如何得到一个h(x)使预测的结果和真实的结果y很相近,于是有了衡量估计值的准确率这样一个损失函数的概念:

    构造了损失函数这一式子,目的在于通过使损失函数的值达到最小这样一个逻辑来求θ。

    本节中详细讲解了两种求解θ的方法,一种为梯度下降法,另一种为最小二乘法,下面依次讲解。

    1. Gradient Descent

    (不得不说手打公式太费事了也浪费时间,只好采用这种方式)

    在这里说一下学习速度α:α越大,步子迈得越大,收敛速度太快,可能会错过最优值;反之,收敛速度太慢,模型训练速度会过慢。在后面很多ML、DL算法中α会作为一个重要的参数进行调节。

    a. Batch gradient descent

    缺点在于每次新加入数据时都要重新进行计算,减慢了计算速度。

    b. Incremental gradient descent

    速度会比较快,然而不会精确地收敛到全局最小值,向着全局最小值附近徘徊。

    依次得到θ的值,最终写出h(x).

    2. 最小二乘法

    最小二乘法是采用矩阵求导的方式得到最优的h(x).

    就这样求得了θ的值。

    矩阵求导过程中用到的一些迹的性质(翻了半天线代书想仔细看看,然而没找到T_T)

    线性回归问题的解决方法就先总结到这里。

    相关文章

      网友评论

          本文标题:CS229-2线性回归问题

          本文链接:https://www.haomeiwen.com/subject/arutvftx.html