SVR

作者: yz_wang | 来源:发表于2018-03-23 10:00 被阅读0次

    kernel 将原始数据空间映射到 高维度空间

    对照LR:
    svr的优化目标是l2 regularization+ c*epsilon-sensitive error. 前者正则化是为了控制模型复杂度不必多说,后者epsilon-sensitive error是理解svr的关键,但其实对照linear regression的损失函数也很容易,就如下图所示



    左边是svr 的loss function,右图是lr的(图片来自coursera 林轩田机器学习技法)左图中,epsilon描述的是紫色区域的宽度,定义这个区域内的点损失为0,这个区域以外的点的损失是点到区域边界的距离,这些区域外的点(或者有可能边界上的点)就是svr 的support vector。所以大致上来说,svr就是要找一条线,忽略它周围的点,对剩余的点进行回归。

    相关文章

      网友评论

          本文标题:SVR

          本文链接:https://www.haomeiwen.com/subject/vflbnxtx.html