@Plams
2017-07-23T02:20:56.000000Z
字数 1357
阅读 216
title: PRML NOTES-1 绪论
date: 2017-07-22 19:27:23
PRML
NOTES
标签(空格分隔): PRML NOTES
为什么不是ESL or MLAPP之类的, 纯粹因为我之前Bayes方面接触的不太多. 本科的时候就经常听到PRML大名, 正好也有译版.(ps.当年那篇翻译版声明的写的是真好)
error function : 通常来说MSE是有效的
关于高次插值造成的over-fitting : 我想起来了类似的一个Runge现象:高次多项式等距插值在边缘点出现误差无穷大的情况. 事实上, Runge现象是由误差累计传播导致, 和over-fitting是不一样的(说到这里, 当年做Runge这个topic的时候还对比了Fourier analysis里面Gibbs现象)
regularization : 事实上 norm是加了一个拉普拉斯先验, 加了一个高斯先验. 后面应该会有推导.
shrinkage : 这个shrinkage和Stein's Pheonomenon的应该是一个吧?高维情形下, regularization导致估计量的shrinkage, 进而导致variance的减小, 补偿了bias, 从而使得泛化误差的减小.
entropy :
KL divergence :
divergence这方面, KL JSD都有一些不好的性质.