最大期望值em算法

上传人:n**** 文档编号:95506669 上传时间:2019-08-19 格式:PPT 页数:25 大小:2.47MB
返回 下载 相关 举报
最大期望值em算法_第1页
第1页 / 共25页
最大期望值em算法_第2页
第2页 / 共25页
最大期望值em算法_第3页
第3页 / 共25页
最大期望值em算法_第4页
第4页 / 共25页
最大期望值em算法_第5页
第5页 / 共25页
点击查看更多>>
资源描述

《最大期望值em算法》由会员分享,可在线阅读,更多相关《最大期望值em算法(25页珍藏版)》请在金锄头文库上搜索。

1、期望最大化算法,汇报人: 喻定,1,目录,期望最大化思想 期望最大化推导,2,最大化似然估计,在已知试验结果(即是样本)的情况下,用来估计满足这些样本分布的参数,把可能性最大的那个参数作为真实的参数估计。 目的:根据样本值估计参数=模型=结果 例如:money= k1*x+k2*y+k3*z X:面积 y:地段 z:楼层 k:参数 money:房价 根据某一单元的10户房的样本x,y,z,money 。 根据已知10组数据用最大似然法求出k1,k2,k3这三个参数为0.6,0.3,0.1,得出模型 money = 0.6*x+0.3*y+0.1*z 只要知道小区里某个房子的面积、地段、楼层=房

2、价,套用模型,3,最大化似然估计,4,此表达式不是条件概率,因为此时参数看作变量,最大化似然估计,求最大似然函数估计值的一般步骤: (1)写似然函数; (2)取对数; (3)求导数,令导数为0,得到似然方程; (4)解似然方程,得到的参数即为所求。,5,期望最大化思想,机器学习十大算法之一期望最大化算法(EM) 用来干嘛的?解决参数估计问题 EM很简单,简单在于它的思想,仅包含了两个步骤就能完成强大的功能;(E步骤, M步骤) EM又很复杂,复杂在于它的数学推理涉及到比较繁杂的概率公式等。(凸函数,琴生不等式,拉格朗日中值定理,贝叶斯,最大似然估计等),6,期望最大化思想,EM算法是一种有效的

3、迭代过程。 EM E步骤:根据上一次迭代的参数来计算出隐藏变量的后验概率,其实就是隐藏变量的期望。= p(|x)值 =p( z |x,) M步骤:将似然函数最大化以获得新的参数值。估计的模型参数使得观察的数据出现概率是最大的。= 更新值 EM算法有很多的应用,最广泛的就是clustering、GMM、HMM等等。,7,期望最大化思想,K-means聚类例子 期望步(E-步):给定当前的簇中心,每个对象都被指派到簇中心离该对象最近的簇,期望每个对象都属于最近的簇。 最大化步(M-步):对于每个簇,算法调整其中心,使得到该新中心的距离之和最小化。将指派到一个簇的对象的相似度最大化。,8,期望最大化

4、思想,GMM混合高斯模型例子: 班上学生的身高就是一个GMM混合高斯模型,由男生身高的高斯分布和女生身高的高斯分布组成。 估计每个样例是男生还是女生=分别估计均值和方差。,9,期望最大化思想,N Y,10,利用当前参数值计算数据j 由第i个类生成的概率,收敛?,最后参数值,期望最大化思想,11,EM,期望最大化思想,12,13,期望最大化思想,14,期望最大化思想,这里有10个样例,每个样例两个特征, 第一步,分别求x和y的平均值,然后对于所有的样例,都减去对应的均值。,15,16,期望最大化推导,17,Convex functions,Definition 1 若对于 a,b 内任意两点x1

5、和x2,且任意 0, 1都满足 f (x1 + (1 - )x2) f(x1) + (1 - )f(x2) 通常称函数f(x)在区间(a,b)内是“下凸函数”。 特别情形取=1/2,琴生不等式,期望最大化推导,19,固定其他参数后,Qi(z (i)的计算公式就是后验概率,期望最大化推导,20,期望最大化推导,21,假定(t) 和(t+1)是EM第t次和t+1次迭代后的结果。选定 (t) 后,我们得到E步 Jensen不等式中的等式成立,期望最大化推导,22,E步求出来的L(t),琴生不等式,期望最大化推导,23,一种收敛方法是l()不再变化,还有一种就是变化幅度很小。那么最终我们会到达最大似然估计的最大值。,期望最大化推导,24,25,谢谢,

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 大杂烩/其它

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号