美文网首页
PRML NOTES-1 绪论

PRML NOTES-1 绪论

作者: 有理式域 | 来源:发表于2017-07-22 23:48 被阅读0次

title: PRML NOTES-1 绪论
date: 2017-07-22 19:40:23
tags:

  • PRML
  • NOTES

PRML NOTES-1 绪论

标签(空格分隔): PRML NOTES


为什么不是ESL or MLAPP之类的, 纯粹因为我之前Bayes方面接触的不太多. 本科的时候就经常听到PRML大名, 正好也有译版.(ps.当年那篇翻译版声明的写的是真好)


概率论

error function : 通常来说MSE是有效的$E(\omega) = \frac{1}{2}\sumN_{n-1}{y(x_n,\vec\omega)-t_n}2$

关于高次插值造成的over-fitting : 我想起来了类似的一个Runge现象:高次多项式等距插值在边缘点出现误差无穷大的情况. 事实上, Runge现象是由误差累计传播导致, 和over-fitting是不一样的(说到这里, 当年做Runge这个topic的时候还对比了Fourier analysis里面Gibbs现象)

regularization : 事实上 $L_1$norm是加了一个拉普拉斯先验, $L_2$加了一个高斯先验. 后面应该会有推导.

shrinkage : 这个shrinkage和Stein's Pheonomenon的应该是一个吧?高维情形下, regularization导致估计量的shrinkage, 进而导致variance的减小, 补偿了bias, 从而使得泛化误差的减小.


信息论

entropy : $H[x]=-\sum_x p(x)\log_2p(x)$
KL divergence : $KL(p||q) = -\int p(x) \ln {\frac{q(x)}{p(x)}}$
divergence这方面, KL JSD都有一些不好的性质.


exercise

公式较多, 两个链接供查看: Plams Blog || CmdMarkdown


相关文章

网友评论

      本文标题:PRML NOTES-1 绪论

      本文链接:https://www.haomeiwen.com/subject/ojnukxtx.html