@mShuaiZhao
2018-01-17T07:16:19.000000Z
字数 718
阅读 429
PaperReading
CNN
2018.01
motivation
ConvNets那么好用,却又没有完全解释清楚其原理,这篇文章主要从可视化的角度来寻找ConvNets的每一层都发生了一些什么。
可视化的方法
deconvolution
这篇文章用来实现可视化的重要方法,反卷积,更确切的称呼应当是transposed convolution。
将卷积后的结果乘上转置后的filter。
具体的操作就是,选择一个activation,记录了其在pooling之前的位置,过ReLU,作deconvolution,重复以上过程,知道将这个activation映射回到image pixel space。
一个activation映射回image pixel space是图像的一个patch。
结论
通过这样的可视化和一些其他的做法,这篇paper得到了什么结论呢?
在ConvNets中,较浅的layer提取的特征都比较具体,更深的layer提取的特征更抽象,可能是一个object啊什么之类。
利用更小size的filter,经过多个组合,可能会提取到更丰富的特征。(这句我是我推测的)
网络的层数是很重要的一个参数,一般的,越深的网络具有越强的特征提取功能。
对于classification,模型可能会对局部的structure更为敏感,并不是仅仅关注于全局的信息。
用ImageNet训练的model可以很好的泛化到其他数据集上。
从文中的实验来看,就是pretrained model比没有pretrained取得了更好的实验结果。
Note
这篇文章的实验做的真的非常扎实。