LARK : Locally Adaptive Regression Kernels
回顾之前的算法:
1.BL

Sensitive to
- noise
- variation in illumination
2.NLM

Smoothing effect, more robust,
but still quite sensitive
More effective ways to combine the two Δs
- LARK Kernel
- Beltrami Kernel
1.离散到非参数内核回归

Z 也有一种离散的意思。

可以看出y是离散的,现在还不确定Z的具体形式。
2.Locality in Kernel Regression
还是这个模型:

泰勒级数展开:

现在需要估计第一个βo.
3.Optimization Problem
对每一个y进行展开:

优化目标:使得误差最小.

采样后的结果:




4.Locally Linear/Nonlinear Estimators

By choosing a data‐adaptive kernel(BL,NLM,LARK), the filters become nonlinear.
总之:之前只与x有关,现在多了Y

铺垫了这么久......
LARK Kernels

Locally Adaptive Regression Kernel: LARK


公式与图对照看就可以理解了,Cl是通过离散的Xk求得。
梯度协方差矩阵和局部几何





实验结果比较:

Robustness of LARK Descriptors

对于以上三种失真结果都没有多大变化。
网友评论