@nearby
2018-02-18T12:57:38.000000Z
字数 1470
阅读 2567
(, ),其中为输入图像,为正确的分类标签。为得分函数(score function),SVM损失函数如下:
- 当取平均时,不改变总的损失函数
- 当时,,不改变
- 当时,影响,此时对做了非线性改变
- 初始化时,通常的取值很小,则得分函数,此时。可以利用这一点来进行代码调试,打印出第一次迭代时的loss,看是否符合这一规律。
- 当找到使的时,W并不唯一,因为W做scale后,仍可保证损失函数为0.由此引入了正则化项,以选择出合适的
等式前半部分,为了获得使Loss为0的权重,后半部分为了使W唯一,避免陷入局部最优,二者相互制约,最终使得最小。
常见的正则化形式如下(W是一个K行l列的权重矩阵):
- Regularization
- Regularization
- Elastic Net弹性网模型()
- Max Normalization
- Dropout
example
虽然 都可以能得到相同的得分,但考虑了的所有像素点,比更合适。从正则化角度来考虑,加上正则化项后,得到的损失函数嗯小。
softmax是LR的泛化形式,函数表达式如下:
- 的最小值为0,最大值为正无穷;
- 初始化时W通常很小,此时,同样的,可以用来调试时判断损失函数是否有错。