[关闭]
@frank-shaw 2015-10-29T02:28:21.000000Z 字数 7551 阅读 4825

3月机器学习班笔记第十二课--EM算法

机器学习


EM算法的入门

EM算法(Expectation Maximization Algorithm)即最大期望算法,它被评为机器学习十大算法之一。能评得上十大那一定很叼啊。该算法是一种以迭代的方式来解决一类特殊最大似然 (Maximum Likelihood) 问题的方法,这类问题通常是无法直接求得最优解,但是如果引入隐含变量,在已知隐含变量的值的情况下,就可以转化为简单的情况,直接求得最大似然的解。

作为了解EM的入门,推荐博客http://blog.csdn.net/zouxy09/article/details/8537620给大家,里面讲的生动形象,举例贴近生活。我呢,就盗用他的博客里面的一个示例作为引子,展开对EM的阐述:
我们接收到一个神圣的任务:需要去统计母校的男生女生的身高分布情况(假定服从高斯分布),即需要分别确定两个高斯分布中的参数μσμσ。怎么做呢?学校人数可有好几万呢,理智的选择是抽样。假设我们采访了100个男生100个女生,获取了200个关于身高的数据(包含性别这一栏)。有了这份数据,只需要分别对男生样本和女生样本使用极大似然估计(MLE),即可求得MLE下的参数μσμσ(具体过程略)。这本来是一件比较简单的任务,容易完成。

但是,和你一起统计数据的队友有些逗比,他不小心将200个统计数据中的性别这一栏给弄丢了(好吧,这样的队友也是醉了)。卧槽,这个时候怎么办?200个数据可是从两个不同的分布中抽取出来的(现在抽取得到的每个样本都不知道是从哪个分布抽取的),统一处理的话就不可能用MLE那么简单得解决了呀!唉,急死人!!

这个时候,你看到了EM算法。它用一种忽悠的语气对你说:“同学,既然没有明显的解决办法,倒不如你先随机猜测一下男生女生的这几个高斯分布参数吧,然后你再根据这个高斯分布来判断这200个数据更有可能属于哪一个分布。”你想:"这不是瞎扯淡么,怎么可以随便猜的?"但是没有其他办法,只有试试了。试试就试试。

将200个数据区分开男女生之后,你似乎知道怎么做了:“Y的,这个时候我不就可以使用MLE方法来重新估计这几个参数了么!”

EM算法说:“是的,更进一步的说,你有了这几个新的参数之后,就又可以将200个数据再次判断更有可能属于哪一个分布了,接着如此如此迭代,直到最后你可以得到一个较好的近似结果。”

迭代?!果然可以哦! EM神秘一笑:“最后忠告:此方法得到的只是局部最优解哦,不一定是全局最优解。”随后扬长而去。

这个瞎比比的故事只是让我们对EM算法有了一个初步的印象。其中,“隐变量、迭代、局部最优”是较为核心的词汇。那么,接下来让我们从数学的角度来看看为什么EM算法是可行的。

EM的数学推导

首先是数学定义:假设我们有一个样本集{x(1),...,x(m)},包含m个独立的样本。我们需要估计的参数为θ。我们需要选择一个最佳的参数θ,使得从训练样本集中观察到的情况出现的可能性最大,即极大似然估计,相应的对数极大似然函数(似然函数取对数即可)为:

l(θ)=i=1mlog p(x(i);θ)     (1)

现在引入一个隐含变量z,引入它的原因可能是方便实际问题的求解(如之前例子,不引入隐含变量根本无法求解),也可能是变量具体含义的需求。那么带有隐含变量的对数极大似然估计为:
l(θ)=i=1mlogz(i)p(x(i),z(i);θ)     (2)

由于现在的隐含变量z(i)是未知的,直接使用极大似然估计去估计θ会比较困难。但是,如果确定了z(i)以后,求解就相对容易了。
从上式可以看到,z(i)是随机变量,对每一个样本x(i)求所有可能的z(i)的联合概率密度之和,求和之后求对数。我们需要对“和的对数”求导然后令导数为0(MLE的作法),这个作法很复杂。如果能够转变为“对数的和”,那么对于求导而言就容易一点了。怎么做呢?看下面:
l(θ)=i=1mlogz(i)Qi(z(i))p(x(i),z(i);θ)Qi(z(i))     (3)i=1mz(i)Qi(z(i))log p(x(i),z(i);θ)Qi(z(i))     (4)

这个不等式转换就换成了“对数的和”,其中利用的是Jensen不等式的性质(点我查看凸优化一书中的讲解),考虑到log(x)是凹函数(二阶导小于0),而且z(i)Qi(z(i))p(x(i),z(i);θ)Qi(z(i))就是变量p(x(i),z(i);θ)Qi(z(i))关于随机变量z(i)的期望。具体的Jensen不等式写成:
f(Ez(i)Qi[p(x(i),z(i);θ)Qi(z(i))])Ez(i)Qif([p(x(i),z(i);θ)Qi(z(i))])     (5)

将f()使用log函数来表示即为(1)式到(2)式的由来。
这个过程可以看做是对l(θ)求了下界。假定参数θ的值已经给定,那么l(θ)的下界值就取决于Qip(x(i),z(i))这两项。我们希望通过对Qip(x(i),z(i))的合理选择,得到一个更加紧的下界,以逼近l(θ)的值。那怎样的下界才是好的呢?当然是不等式变成等式的时候。根据Jensen不等式,要想使得等式成立,条件是让随机变量变成常数值(不理解的话可以自己设一个凸函数,然后使用Jensen不等式来试试就知道了),即:
p(x(i),z(i);θ)Qi(z(i))=c     (6)

其中c为常数,不依赖于zi。我们知道zQi(z(i))=1,那么也就有zp(x(i),z(i);θ)=c(此处认为每个样本的两个概率比值都是c,多个等式分子分母相加不变),那么有:
Qi(z(i))=p(x(i),z(i);θ)zp(x(i),z(i);θ)=p(x(i),z(i);θ)p(x(i);θ)=p(z(i)|x(i);θ)     (7)

值得注意的是,此处的Qi(z(i))是一个关于变量z(i)的分布,但并不是变量z(i)的先验分布。通过最终的表达式也可以知道,这是关于在已知x(i)时的z(i)的条件分布。

于是,我们得到了在固定参数θ时,能够使得lθ的下界尽可能大(即等于lθ)的Qi(z(i))的计算公式。这一步就是EM算法中的E步。

接下来是M步,在给定Qi(z(i))后,调整θ,去极大化lθ的下界(在固定Qi(z(i)),下界还可以调整的更大)。由此EM算法的步骤如下:
EM算法流程
为了对此有一个更深的印象,请看下面这幅图:
EM算法演示图

看图就可以知道,经过不断迭代,就可以得到使得对数似然函数l(θ)最大化的参数θ了。仅仅是看而已,我们还需要数学证明:这样的迭代过程会是收敛的么?
如何确保EM收敛?假定θ(t)θ(t+1)是EM的第t次和第t+1次迭代后的结果。如果我们证明了θ(t)θ(t+1),也就是说极大似然估计在这个过程中单调增加,那么我们最后会得到极大似然估计的最大值。下面来证明,选定θ(t)后,我们得到E步:

Q(t)i(z(i))=p(z(i)|x(i);θ(t))     (8)

E步选择的Q(t)i(z(i))保证了在给定θ(t)时,Jensen不等式中的等式成立,即:
l(θ(t))=i=1mz(i)log Q(t)i(z(i))p(x(i),z(i);θ(t))Q(t)i(z(i))     (9)

然后进行M步,固定分布Q(t)i(z(i))(此时的变量是θ),选择能够最大化对数似然函数的θ(t+1),由此有:
l(θ(t+1))i=1mz(i)log Q(t)i(z(i))p(x(i),z(i);θ(t+1))Q(t)i(z(i))i=1mz(i)log Q(t)i(z(i))p(x(i),z(i);θ(t))Q(t)i(z(i))=l(θ)     (10)

第一个不等式来自于似然函数l(\theta^{(t+1)})一直都是大于等于似然函数的下界(在t+1阶段什么时候取等号,在求得新的Q(t+1)i(z(i))以及θ(t+1)时,此时只更新了θ(t+1))。第二个不等式则侧面反映了M步的结果,θ(t+1)所对应的对数似然函数必然大于等于θ(t)的对数似然函数。
由此可以知道l(θ)会单调上升,EM算法是收敛的。
实际上,如果我们定义
J(Q,θ)=i=1mz(i)log Qi(z(i))p(x(i),z(i);θ)Qi(z(i))     (11)

从前面的推导,可知l(θ)J(Q,θ),EM可以看做是J的坐标上升法:

E步:固定θ,优化Q
M步:固定Q,优化θ

形象表示如下图:
坐标上升法

EM算法使用范例--混合高斯模型(GMM)

我们从最开始的调侃示例对EM有了初步了解,通过数学推导得到了确切的证明它能用,而且证明过程很聪明,不是么。现在我们想要使用这样的思想来解决一个广泛意义下的普遍问题--混合高斯模型。混合高斯模型是一种无监督学习算法,常用于聚类。当聚类问题中各个类别的尺寸不同,各类间有相关关系时,往往使用混合高斯模型更加合适(当然前提是各个类别之间可以看做是高斯分布)。值得注意的是:使用高斯模型得到的是属于某一类的概率,即所谓的"软聚类"。之前提到的估计学校男生女生身高的参数的问题就是这个模型的一个实例。
混合高斯模型的数学定义如下:
一如往常,假设我们有一个样本集{x(1),...,x(m)},包含m个独立的样本。假设有一个隐含变量z,我们用它来表示隐含的类别标签。即样本x(i)属于哪一个类别是未知的,但是具体样本x(i)与具体类别z(i)有一定的关联。该模型中有两个重要假设:

假设一:z服从多项式分布,即:

z(i)Multinomial(ϕ)

其中,ϕj表示的是概率p(v=j),且有ϕj>0jϕkj=1=1k表示类别的数量。

假设二:已知z(i)时,x(i)满足高斯分布,即:

(x(i)|z(i)=j)N(μj,Σj)

由此可得联合分布P(x(i),z(i))=P(x(i)|z(i))p(z(i))

整个模型可以简单描述为:先从k个类别中按多项式分布抽取一个z(i),然后根据z(i)所对应的高斯分布中生成一个样本x(i)
对数似然函数可以表示为:

l(ϕ,μ,Σ)=i=1mlog p(x(i),z(i);ϕ,μ,Σ)=i=1mlogz(i)=1kP(x(i)|z(i);μ,Σ)p(z(i);ϕ)

如果我们已经知道了每一个样本的所属类别z(i),那么上式就可以简化成:
l(ϕ,μ,Σ)=i=1m[log P(x(i)|z(i);μ,Σ)+log p(z(i);ϕ)]

进而可以使用MLE求得:
GMM的MLE求解

但是,我们实际上是不知道z(i)的。只有使用EM算法。在E步,固定参数ϕ,μ,Σ,猜测隐含类型变量z。具体的,z的更新公式如下:对每一个i,j:

w(i)j=p(z(i)=j|x(i);ϕ,μ,Σ)=p(z(i)=j,x(i);ϕ,μ,Σ)p(x(i);ϕ,μ,Σ)=p(x(i)|z(i)=j;μ,Σ)p(z(i)=j;ϕ)kl=1p(x(i)|z(i)=l;μ,Σ)p(z(i)=l;ϕ)

这里的w(i)j也就是EM推导过程中的分布Qi(z(i))。其中,p(x(i)|z(i)=j;μ,Σ)是已知模型参数下所得的正态分布,p(z(i)=j;ϕ)是多项式分布。由此可以得到给定样本x(i)前提下,隐变量z的条件概率。

在M步,根据E步得到的z的分布,重新对参数进行极大似然估计。有:

经过一定的迭代次数以后,最终问题得以解决。

添加新批注
在作者公开此批注前,只有你和作者可见。
回复批注