[关闭]
@devilloser 2018-07-19T07:41:06.000000Z 字数 502 阅读 687

一点总结

action


CVPR2018

几篇文章的总结

IndRNN

IndRNN
主要思想:
传统RNN:
改进:
means Hadamard product(element-wise multiply)
优点:
U的各个神经元之间independ,RNN每层的每个神经元各自独立地学习一种输入数据的pattern,然后下一层的神经元再基于上一层神经元的输出学习新的pattern,逐层抽象。然后在多层RNN中可以讲U的各个神经元联系起来。

做了一些实验

v1:对IndRNN,W用残差块代替,
v2:感觉U的参数量太大,而且不好收敛,改为提高大概5%,因为res18本身比较小
v3:t从8改为16,RNN 循环次数增加,但是没有看到IndRNN的效果,精度下降
v4:relu改成prelu,考虑relu滤掉了太多的信息,改成prelu,精度稳定在81左右

Thanks!

添加新批注
在作者公开此批注前,只有你和作者可见。
回复批注