[关闭]
@evilking 2018-05-01T10:24:30.000000Z 字数 7992 阅读 1694

机器学习篇

AdaBoost提升

AdaBoost提升是基于 Boosting算法的一种集成学习算法,本篇会详细讲解Boosting算法的思路,以及AdaBoost具体操作流程和推导过程,最后会用R代码演示如何使用 AdaBoost算法.

集成学习

我们之前讲的随机森林也是一种集成学习,这里正式介绍下什么是集成学习.

我们分类中用到很多经典的分类算法,比如 SVM、logistic 等等,要训练单个分类器达到很高的精度比较困难,我们很自然想到的一个方法就是能否整合多个算法优势到解决某一个特定分类问题中去,而每一个单独的分类器不需要特别高的分类精度,答案是肯定的,这就是集成学习的思路.

通过聚合多个分类器的预测来提高分类的准确率,这种技术称为集成学习(ensemble learning)。集成学习由训练数据构建一组不同的基分类器,然后通过对每个基分类器的预测进行权重控制来进行投票分类.

假设考虑 25 个二元分类问题,每个分类器的分类误差为0.35,如果所有基分类器都是相互独立的(即误差是不相关的),则在超过一半的基分类器预测错误的组合情况下,才认为整个分类器预测错误,这种情况下的组合分类器的误差率为:

下图对角线表示所有基分类器都是等同的情况,实线是基分类器独立时的情况:

adaboost1

组合分类器性能优于单个分类器必须满足两个条件:

实践中很难保证基分类器之间完全独立,但是在基分类器轻微相关的情况下,集成学习依然可以提高分类的准确率.

集成学习一般有两类:

  1. 平均方法(averaging methods)
    它的原理是分别建立多个独立的评计量,然后通过投票预测;一般来说,总估计量通常比单一的估计量要好,因为它的方差减少了.

    这类算法的代表是: Bagging 方法,随机森林 等等.

  2. 提升方法(boosting methods)
    它的原理是将几个弱模型结合起来,形成一个强大的整体,其中基本的估计量是按顺序建立的,并试图减少组合估计量的偏差.

    代表算法有: AdaBoost,梯度提升树(GBDT)

在前面的篇章中我们已经讲解过 随机森林 的原理了,下面我们会依次讲解 AdaBoost提升算法 和 GBDT 梯度提升树的算法原理.


AdaBoost 算法

强可学习与弱可学习

强可学习是指一个学习算法能很好的对训练集进行学习并且有很高的正确率.

弱可学习要求没强可学习那么高,只需要学习的正确率仅比随机猜测要好即可.

所以弱可学习相比于强可学习来说更容易获得,但在实践中人们往往希望用更少的基学习器来进行学习,所以往往使用强可学习的学习器来作为基学习器.


提升方法有两个问题:

  1. 每一轮如何改变训练数据的权重或概率分布.

  2. 如何将弱分类器整合为强分类器.

很朴素的思想解决这两个问题:

  1. 提高被前一轮弱分类器错误分类的权值,而降低那些被正确分类的样本的权值,这就使得那些没有得到正确分类的样本,由于权值加重,所以会受到下一轮弱分类器的更大关注.

  2. Adaboost采用加权多数表决的方法,即加大分类误差率小的弱分类器的权值,使其在表决中起到较大的作用,相反减小误差率大的弱分类器的权值,使其在表决中起到较小的作用.

注意这里的基学习器并没有规定一定要是决策树或是SVM等,泛指所有的分类器;

这就说明 Boosting 方法更多的是一种思路,或者说是框架,可以与多种分类算法相结合.


AdaBoost过程

输入: 训练集 ;
基学习算法 ;
训练轮数 .
过程:

  1. ;
  2. ;
  3. ;
  4. ;

输出:


这里对上述算法过程进行说明:

首先有训练集 ,且给每个样本的初始权重为 ,然后开始迭代提升,逐步改变分类错误样本的权重.

对每一次迭代来说,第一步就是在 数据集上训练一个分类器 ,也就是算法中的(3)步;该分类器可以是决策树、SVM或logistic等等; 是第 步时的训练集分布,与初始训练集的不同就是每个样本的权重进行了重新分配.

(4)步是计算新训练的分类器的误差率.

(5)步是判断 次迭代训练的分类器是否比随机猜测更好,如果得到的分类器比随机猜测坏的话就直接退出训练.

(6)(7)步是根据当前分类器的分类误差来更新每个样本的权重,以便下一轮弱分类器的训练;其中 .

最后输出这一步是加权多数表决的过程, 是符号函数,即


AdaBoost推导过程

前面我们将了算法过程,其中涉及到几个公式,既然是学习,我们就需要知其然知其所以然。

AdaBoost算法有多种推导方式,其中比较容易理解的是基于“加性模型”(additive model),即基学习器的线性组合:

来最小化指数损失函数:

能令指数损失函数最小化,则考虑损失函数对 的偏导为零:
可解得

因此有

这意味着若指数损失函数最小化,则分类错误率也将最小化;这说明指数损失函数是分类任务原 损失函数的一致的替代损失函数.因为指数损失函数数学性质更好.


上面一步说明了指数损失函数是有效的.下面考虑当基分类器 基于分布 产生后,该基分类器的权重 应使得 最小化指数损失函数:

其中 . 考虑指数损失函数的导数:
解得:
这就是上面算法过程中第 (6) 步中的权值更新公式.

其中, 为示性函数.


AdaBoost算法在获得 之后样本分布将进行调整,并学习下一轮基学习器 ,并且使得 的效果更好,即最小化

单独考虑 :

所以指数损失函数可以转换为:

上述 为泰勒展开式,对 用了二阶泰勒展开.

于是理想的基学习器为:

需要注意的是, 是一个常数,已知的,因为在 轮迭代时,前面的 已经知道了,其实 也是已知的了.

于是令 表示一个分布


根据数学期望的定义,这等价于令

注意这里的数据集已经变了,由 变成了 ,两者的差别是分布已由 的表达式更新了.

由于 ,有

则理想的基学习器为:

由此可见,理想的 将在分布 下最小化分类误差.因此,弱分类器将基于分布 来训练,且针对 的分类误差应小于 0.5 . 这在一定程度上类似“残差逼近”的思想。

考虑到 的关系,有

这就是上述算法过程中第 (7) 步的由来.


R程序示例

这里我们还是以 "churn" 数据集为例,来演示 AdaBoost提升算法的过程.

R中的 adabag包 分别实现了 bagging 方法和 boosting 方法的几种算法,没有安装该包的读者需要先按照包:

  1. > install.packages("adabag")

第一步,加载数据集:

  1. # install.packages("C50")
  2. > library(C50)
  3. # 加载数据
  4. > data(churn)
  5. >

可以看到此时在内存中有两个对象: churnTest 和 churnTrain .分布为测试集和训练集,你可以在使用它们之前做一些数据预处理的工作,比如说去掉一些对分类没有太大作用的变量;

预处理工作我们在前面讲解决策树的时候已经做过了,所以这里为了简化,我们直接使用原始数据集.

  1. # 使用adaboost算法前需先导包
  2. > library(adabag)
  3. >
  4. > set.seed(2)
  5. # 利用 adaboost算法训练
  6. > churn.boost = boosting(churn ~., data = churnTrain,mfinal = 10,coeflearn = "Breiman",boos = TRUE,control = rpart.control(maxdepth = 3))
  7. >

boosting()算法的实现是使用的 AdaBoost.M1 和 SAMME 算法,分类器使用的是决策树;详情可使用 help("boosting") 查看.

boosting() 函数的原型为 boosting(formula, data, boos = TRUE, mfinal = 100, coeflearn = 'Breiman', control,...)

formula: 与线性回归一样的公式,~ 符合的左边表示要输出的变量,右边表示预测变量.

data: 数据集,用于 formula

boos: if TRUE (by default), a bootstrap sample of the training set is drawn using the weights for each observation on that iteration. If FALSE, every observation is used with its weights. 暂时笔者也没搞明白这个参数什么意思.

mfinal: 迭代次数,或者是树的生成棵树.

coeflearn: 更新公式,如果为 'Breiman',公式为 ,我们上面的推导就是用的这个公式;如果为 'Freund',公式为 .如果为 'Zhu',公式为

control: 这里可以设置决策树的各个参数.详情可以参考 help("rpart.control").

模型训练好了,下面可以用于预测了:

  1. # 输入测试集进行预测
  2. > churn.boost.pred = predict.boosting(churn.boost,newdata = churnTest)
  3. # 输出测试集预测的混淆矩阵
  4. > churn.boost.pred$confusion
  5. Observed Class
  6. Predicted Class yes no
  7. no 115 1431
  8. yes 109 12
  9. # 输出预测误差
  10. > churn.boost.pred$error
  11. [1] 0.07618476
  12. # 可以查看预测结果对象的数据结构
  13. > str(churn.boost.pred)
  14. List of 6
  15. $ formula :Class 'formula' language churn ~ .
  16. .. ..- attr(*, ".Environment")=<environment: R_GlobalEnv>
  17. $ votes : num [1:1667, 1:2] 0 0.431 1.473 0.71 0.66 ...
  18. $ prob : num [1:1667, 1:2] 0 0.0969 0.3315 0.1597 0.1485 ...
  19. $ class : chr [1:1667] "no" "no" "no" "no" ...
  20. $ confusion: 'table' int [1:2, 1:2] 115 109 1431 12
  21. ..- attr(*, "dimnames")=List of 2
  22. .. ..$ Predicted Class: chr [1:2] "no" "yes"
  23. .. ..$ Observed Class : chr [1:2] "yes" "no"
  24. $ error : num 0.0762
  25. >

上面的预测误差为 0.0762,说明预测准确率为 92.38%,模型还算比较好.

若想提高准确率,可以对数据集进行预处理,或者调整决策树的各个参数.


小结

到这里 AdaBoost 提升算法就讲完了,希望讲明白了.

添加新批注
在作者公开此批注前,只有你和作者可见。
回复批注