@betasy
2016-11-25T14:53:21.000000Z
字数 1387
阅读 1206
支持向量机(SVM)
机器学习
- 间隔与支持向量
给定训练样本集 , 分类学习最基本的想法就是基于训练集 在样本空间中找到一个划分超平面,将不同类别的样本分开。
需要找到划分结果最鲁棒,对未见示例的泛化能力最强的超平面。
在样本空间中,划分超平面可通过如下线性方程来描述:
其中为法向量,决定了超平面的方向;为位移项,决定了超平面与原点之间的距离。显然,划分超平面可被法向量和位移确定。我们将其记为。样本空间中任一点到超平面的距离可写为:
假设超平面能将训练样本正确分类,即对于,若,则有 ;若,则有 ,令:
距离超平面最近的这几个训练样本点使上式等号成立,它们被称为“支持向量”(support vector),两个异类支持向量到超平面的距离之和为:
它被称为“间隔”(margin)
欲找到具有“最大间隔”(maximum margin)的划分超平面,也就是要找到能满足约束的和,使得最大,即
显然,为了最大化间隔,仅需最大化,这等价于最小化,于是:
这就是支持向量机(support vector machine)的基本型
要最优化,可以化解为一个凸二次规划的问题,但是面对高维向量空间时,直接求解二次规划问题需要耗费问题复杂度指数倍的时间,因此常化解为求解其对偶问题。
对基本型方程组使用拉格朗日乘子法可得到其对偶问题。该问题的拉格朗日函数可写为:
其中
。令
对
和
的偏导为零可得
将上式代入拉格朗日函数,即可将
中的
和
消去,再考虑B式的约束,就得到对偶问题: