LARK

作者: Persistently | 来源:发表于2017-04-25 15:11 被阅读0次

LARK : Locally Adaptive Regression Kernels

回顾之前的算法:

1.BL


Sensitive to

  1. noise
  2. variation in illumination

2.NLM


Smoothing effect, more robust,
but still quite sensitive

More effective ways to combine the two Δs

  • LARK Kernel
  • Beltrami Kernel

1.离散到非参数内核回归

Z 也有一种离散的意思。

可以看出y是离散的,现在还不确定Z的具体形式。

2.Locality in Kernel Regression
还是这个模型:


泰勒级数展开:


现在需要估计第一个βo.

3.Optimization Problem

对每一个y进行展开:

优化目标:使得误差最小.

采样后的结果:

图片.png

4.Locally Linear/Nonlinear Estimators

By choosing a data‐adaptive kernel(BL,NLM,LARK), the filters become nonlinear.

总之:之前只与x有关,现在多了Y


铺垫了这么久......

LARK Kernels

Locally Adaptive Regression Kernel: LARK


公式与图对照看就可以理解了,Cl是通过离散的Xk求得。

梯度协方差矩阵和局部几何

实验结果比较:

Robustness of LARK Descriptors


对于以上三种失真结果都没有多大变化。

相关文章

网友评论

      本文标题:LARK

      本文链接:https://www.haomeiwen.com/subject/ycoimttx.html