@zqbinggong
2018-05-30T14:07:01.000000Z
字数 492
阅读 845
《tensorflow实战》
这对ReLU这种没有上限边界的激活函数很有用,因为它会从附近的多个卷积核的响应中挑选比较大的反馈,但是不适合sigmoid这种有固定边界并且能抑制过大值的激活函数(可以理解二阶导数在零附近最大)
总的来说BN就是用来解决反向传播过程中出现的梯度弥散()和梯度爆炸()