[关闭]
@betasy 2016-11-25T14:53:21.000000Z 字数 1387 阅读 1206

支持向量机(SVM)

机器学习


  1. 间隔与支持向量
    给定训练样本集 , 分类学习最基本的想法就是基于训练集 在样本空间中找到一个划分超平面,将不同类别的样本分开。
    需要找到划分结果最鲁棒,对未见示例的泛化能力最强的超平面。
    在样本空间中,划分超平面可通过如下线性方程来描述:

    其中为法向量,决定了超平面的方向;为位移项,决定了超平面与原点之间的距离。显然,划分超平面可被法向量和位移确定。我们将其记为。样本空间中任一点到超平面的距离可写为:

    假设超平面能将训练样本正确分类,即对于,若,则有 ;若,则有 ,令:

    距离超平面最近的这几个训练样本点使上式等号成立,它们被称为“支持向量”(support vector),两个异类支持向量到超平面的距离之和为:

    它被称为“间隔”(margin)
    欲找到具有“最大间隔”(maximum margin)的划分超平面,也就是要找到能满足约束的,使得最大,即

    显然,为了最大化间隔,仅需最大化,这等价于最小化,于是:

    这就是支持向量机(support vector machine)的基本型

要最优化,可以化解为一个凸二次规划的问题,但是面对高维向量空间时,直接求解二次规划问题需要耗费问题复杂度指数倍的时间,因此常化解为求解其对偶问题。
对基本型方程组使用拉格朗日乘子法可得到其对偶问题。该问题的拉格朗日函数可写为:


其中。令 的偏导为零可得

将上式代入拉格朗日函数,即可将 中的 消去,再考虑B式的约束,就得到对偶问题:

添加新批注
在作者公开此批注前,只有你和作者可见。
回复批注