李航-第9章EM算法及其推广

EM算法的每次迭代由两步组成:E步,求期望;M步,求极大。
所以这一算法称为期望极大法(expectation maximization),简称EM算法。

EM算法的最大优点是简单性和普适性。

关于概率和似然:
在统计学中,似然函数(likelihood function,通常简写为likelihood,似然)是一个非常重要的内容,在非正式场合似然和概率(Probability)几乎是一对同义词,但是在统计学中似然和概率却是两个不同的概念。概率是在特定环境下某件事情发生的可能性,也就是结果没有产生之前依据环境所对应的参数来预测某件事情发生的可能性,比如抛硬币,抛之前我们不知道最后是哪一面朝上,但是根据硬币的性质我们可以推测任何一面朝上的可能性均为50%,这个概率只有在抛硬币之前才是有意义的,抛完硬币后的结果便是确定的;而似然刚好相反,是在确定的结果下去推测产生这个结果的可能环境(参数),还是抛硬币的例子,假设我们随机抛掷一枚硬币1,000次,结果500次人头朝上,500次数字朝上(实际情况一般不会这么理想,这里只是举个例子),我们很容易判断这是一枚标准的硬币,两面朝上的概率均为50%,这个过程就是我们运用出现的结果来判断这个事情本身的性质(参数),也就是似然。

参考链接:
似然与极大似然估计

EM算法与K-means算法的联系

高斯混合模简写为GMM(Gaussian misture model),而EM算法是学习高斯混合模型的有效方法。

对比K-Means算法和GMM的EM解法,我们会发现二者具有很强的相似性。K-Means算法对数据点的聚类进行了“硬分配”,即每个数据点只属于唯一的聚类;而GMM的EM解法则基于后验概率分布,对数据点进行“软分配”,即每个单独的高斯模型对数据聚类都有贡献,不过贡献值有大有小。

Kmeans是一个聚类模型;EM算法是一个求模型参数的优化算法;

Kmeans模型可以认为是GMM混合高斯模型的特例。k-means算法与EM算法的关系是这样的:k-means是两个步骤交替进行,可以分别看成E步和M步;M步中将每类的中心更新为分给该类各点的均值,可以认为是在「各类分布均为单位方差的高斯分布」的假设下,最大化似然值;E步中将每个点分给中心距它最近的类(硬分配),可以看成是EM算法中E步(软分配)的近似。

EM算法(期望最大化)——从EM算法角度理解K-Means与GMM的区别

EM算法要解决的问题

EM算法,为了解决含有隐变量的概念模型的学习。

应用:
EM算法可以用于生成模型的非监督学习,比如隐马尔可夫模型。
EM算法用于高斯混合模型的参数估计。
另外,还有很多算法变形,比如GEM算法。

EM算法的推导
EM算法.jpg
EM算法的解释.jpg

EM算法是通过迭代逐步近似极大化L(Θ)的,假设在第i次迭代后Θ的估计值是Θ(i)。我们希望新估计值Θ能使L(Θ)增加,即L(Θ) > L(Θ(i))并逐步达到极大值。

EM算法的收敛性思考
EM算法收敛性定理9.1.jpg
EM算法收敛性定理9.2.jpg

定理只能保证参数估计序列收敛到对数似然函数序列的稳定点,不能保证收敛到极大值点。所以在应用中,初值的选择变的非常重要,常用的方法是选取几个不同的初值进行迭代,然后对得到的各个估计值加以比较,从中选择最好的。

最大似然估计与EM算法的关系

EM算法是用来求解含有隐变量(未能观测的变量)模型的极大似然估计。故其本质还是极大似然估计。EM算法是在极大化Q函数,而可以证明的是Q函数变大的时候,似然函数也在变大,所以本质还是在做极大似然估计

例9.1 三硬币模型

In [2]: import numpy as np
   ...: import math
   ...: 

In [3]: pro_A, pro_B, pro_C = 0.5,0.5,0.5
   ...: def pmf(i, pro_A, pro_B, pro_C):    
   ...:     pro_1 = pro_A * math.pow(pro_B, data[i]) * math.pow((1-pro_B), 1-data[i])
   ...:     pro_2 = pro_A * math.pow(pro_C, data[i]) * math.pow((1-pro_C), 1-data[i])
   ...:     return pro_1 / (pro_1 + pro_2)
   ...: 

In [4]: class  EM:
   ...:     def __init__(self, prob):
   ...:         self.pro_A, self.pro_B, self.pro_C = prob
   ...: 
   ...:     # e_step
   ...:     def pmf(self, i):
   ...:         pro_1 = self.pro_A * math.pow(self.pro_B, data[i]) * math.pow((1-self.pro_B), 1-data[i])
   ...:         pro_2 = (1 - self.pro_A) * math.pow(self.pro_C, data[i]) * math.pow((1-self.pro_C), 1-data[i])
   ...:         return pro_1 / (pro_1 + pro_2)
   ...: 
   ...:     # m_step
   ...:     def fit(self, data):
   ...:         count = len(data)
   ...:         print('init prob:{}, {}, {}'.format(self.pro_A, self.pro_B, self.pro_C))
   ...:         for d in range(count):
   ...:             _ = yield
   ...:             _pmf = [self.pmf(k) for k in range(count)]
   ...:             pro_A = 1/ count * sum(_pmf)
   ...:             pro_B = sum([_pmf[k]*data[k] for k in range(count)]) / sum([_pmf[k] for k in range(count)])
   ...:             pro_C = sum([(1-_pmf[k])*data[k] for k in range(count)]) / sum([(1-_pmf[k]) for k in range(count)])
   ...:             print('{}/{}  pro_a:{:.3f}, pro_b:{:.3f}, pro_c:{:.3f}'.format(d+1, count, pro_A, pro_B, pro_C))
   ...:             self.pro_A = pro_A
   ...:             self.pro_B = pro_B
   ...:             self.pro_C = pro_C
   ...:             

In [5]: data=[1,1,0,1,0,0,1,0,1,1]

In [6]: em = EM(prob=[0.5, 0.5, 0.5])
   ...: f = em.fit(data)
   ...: next(f)
   ...: 
init prob:0.5, 0.5, 0.5

In [7]: #第一次迭代
   ...: f.send(1)
1/10  pro_a:0.500, pro_b:0.600, pro_c:0.600

In [8]: #第二次迭代
   ...: f.send(2)
2/10  pro_a:0.500, pro_b:0.600, pro_c:0.600

In [9]: em = EM(prob=[0.4, 0.6, 0.7])
   ...: f2 = em.fit(data)
   ...: next(f2)
   ...: 
init prob:0.4, 0.6, 0.7

In [10]: f2.send(1)
1/10  pro_a:0.406, pro_b:0.537, pro_c:0.643

In [11]: f2.send(2)
2/10  pro_a:0.406, pro_b:0.537, pro_c:0.643

参考链接:
通俗解释EM算法并举例
最大似然估计与EM算法的关系
EM算法(期望最大化)——从EM算法角度理解K-Means与GMM的区别
数理统计与参数估计杂记
EM算法

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 199,711评论 5 468
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 83,932评论 2 376
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 146,770评论 0 330
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 53,799评论 1 271
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 62,697评论 5 359
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,069评论 1 276
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,535评论 3 390
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,200评论 0 254
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,353评论 1 294
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,290评论 2 317
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,331评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,020评论 3 315
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,610评论 3 303
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,694评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,927评论 1 255
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,330评论 2 346
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 41,904评论 2 341

推荐阅读更多精彩内容