[关闭]
@nearby 2018-02-18T12:57:38.000000Z 字数 1470 阅读 2567

#4 Loss function: Hinge Loss and Cross Entropy Loss


Multiclass SVM loss (Hinge Loss)

(, ),其中为输入图像,为正确的分类标签。为得分函数(score function),SVM损失函数如下:


为被判定为正确类别的得分。总的损失函数为所有训练样本上的损失和求平均:
full training loss:

  • 取平均时,不改变总的损失函数
  • 时,,不改变
  • 时,影响,此时对做了非线性改变
  • 初始化时,通常的取值很小,则得分函数,此时。可以利用这一点来进行代码调试,打印出第一次迭代时的loss,看是否符合这一规律。
  • 当找到使时,W并不唯一,因为W做scale后,仍可保证损失函数为0.由此引入了正则化项,以选择出合适的

Regularized weights


等式前半部分,为了获得使Loss为0的权重,后半部分为了使W唯一,避免陷入局部最优,二者相互制约,最终使得最小。
常见的正则化形式如下(W是一个K行l列的权重矩阵):

  • Regularization
  • Regularization
  • Elastic Net弹性网模型(
  • Max Normalization
  • Dropout

example




虽然 都可以能得到相同的得分,但考虑了的所有像素点,比更合适。从正则化角度来考虑,加上正则化项后,得到的损失函数嗯小。


Softmax Classifier (Multinomial Logistic Regression)

softmax是LR的泛化形式,函数表达式如下:


softmax可以理解为每个类别没有归一化的对数概率,它将拉大正确的分类类别与其他类别的差距。
Cross Entropy Loss


可理解为属于每一类的概率,即把得分转换为概率。

其中为正确的分类类别。最大化属于正确类别的概率,等价于最小化概率的log负值。

  • 的最小值为0,最大值为正无穷;
  • 初始化时W通常很小,此时同样的,可以用来调试时判断损失函数是否有错。

Softmax vs. SVM

添加新批注
在作者公开此批注前,只有你和作者可见。
回复批注