美文网首页
线性回归

线性回归

作者: jackben | 来源:发表于2018-09-17 17:40 被阅读0次

    线性回归是机器学习算法的入门,通过该算法,管中窥豹,研究该算法的精髓之处。

    线性回归

    线性回归的损失函数为最小二乘法。 损失函数是连续可导的函数,可求导 方向导数, 然后根据梯度下降法求解局部最优值。 (梯度下降法是求解局部最优值的方法之一, 还有牛顿法等,求解最优值是机器学习的重点之一)

    最小二乘法与高斯分布

    更让人惊讶的地方在于, 最小二乘法作为损失函数可以用高斯分布来解释。 通过高斯分布来构造样本的概率分布,采用最大似然法(最大似然法是机器学习最重要的思想之一,一定要深刻理解它,后续的很多算法都会采用该思想),得出的损失函数是跟最小二乘法是一致! 简直太优雅了!

    这一点涉及的思想有:

    极大似然估计(最重要的思想之一)

    涉及的概率统计知识点:

    条件概率

    高斯分布(重要的概率分布有: 伯努利分布,二项分布,泊松分布, 高斯分布等)

    逻辑回归

    逻辑回归是在线性回归的基础上, 增加了Sigmoid函数(也叫逻辑函数)。Sigmoid函数有比较好的性质, 可结合伯努利分布,表示数据的概率分布P(Y|X,W), 然后基于最大似然思想,得到损失函数,求最优解方法, 同样可以通过梯度下降法!

    逻辑回归的关键在于Sigmoid函数, 那么问题来了: 为什么要选择Sigmoid函数呢?

    通过最大熵(信息论中的知识)可以推导出 Sigmoid函数

    逻辑回归涉及的知识点:

    最大熵(信息论中的知识点,机器学习中也涉及到信息论,如决策树的信息增益)

    总结

    从线性回归和逻辑回归的算法学习中, 可以窥探机器学习算法的三大基本要素:

    预测函数:线性函数和Sigmoid函数

    损失函数:最大似然法可推导出的损失函数

    求解算法:梯度下降法。

    涉及的学科

    概率统计,线性代数, 微积分,信息论等。

    通过最简答的线性回归和逻辑回归算法, 就可以管中窥豹,机器学习是一门跨学科领域,融合了不同学科的思想,可以说是一个集大成的学科。逻辑回归和线性回归算法虽然只是入门机器学习的第一步, 但也足以领略其中的优雅和美!

    相关文章

      网友评论

          本文标题:线性回归

          本文链接:https://www.haomeiwen.com/subject/efrrnftx.html