一文搞懂隐马尔可夫模型

上传人:飞*** 文档编号:47824672 上传时间:2018-07-05 格式:PDF 页数:16 大小:1.01MB
返回 下载 相关 举报
一文搞懂隐马尔可夫模型_第1页
第1页 / 共16页
一文搞懂隐马尔可夫模型_第2页
第2页 / 共16页
一文搞懂隐马尔可夫模型_第3页
第3页 / 共16页
一文搞懂隐马尔可夫模型_第4页
第4页 / 共16页
一文搞懂隐马尔可夫模型_第5页
第5页 / 共16页
点击查看更多>>
资源描述

《一文搞懂隐马尔可夫模型》由会员分享,可在线阅读,更多相关《一文搞懂隐马尔可夫模型(16页珍藏版)》请在金锄头文库上搜索。

1、一文搞懂 HMM (隐马尔可夫模型)什么是熵 (Entropy) 简单来说,熵是表示物质系统状态的一种度量,用它老表征系统的无序程度。熵越大,系统越无序,意味着系统结构和运动的不确定和无规则;反之,熵越小,系统越有序,意味着具有确定和有规则的运动状态。熵的中文意思是热量被温度除的商。负熵是物质系统有序化,组织化,复杂化状态的一种度量。熵最早来原于 物理学 . 德国物理学家鲁道夫 克劳修斯首次提出熵的概念,用来表示任何一种能量在空间中分布的均匀程度,能量分布得越均匀,熵就越大。(1) 一滴墨水滴在清水中,部成了一杯淡蓝色溶液(2) 热水晾在空气中,热量会传到空气中,最后使得温度一致更多的一些生活

2、中的例子 : (1) 熵力的一个例子是耳机线, 我们将耳机线整理好放进口袋, 下次再拿出来已经乱了。让耳机线乱掉的看不见的 “ 力” 就是熵力,耳机线喜欢变成更混乱。(2) 熵力另一个具体的例子是弹性力。一根弹簧的力,就是熵力。胡克定律其实也是一种熵力的表现。(3) 万有引力也是熵力的一种 (热烈讨论的话题 )。(4) 浑水澄清 1 于是从微观看, 熵就表现了这个系统所处状态的不确定性程度 。香农,描述一个信息系统的时候就借用了熵的概念,这里熵表示的是这个信息系统的平均信息量 ( 平均不确定程度 ) 。最大熵模型我们在投资时常常讲不要把所有的鸡蛋放在一个篮子里,这样可以降低风险。 在信息处理中

3、,这个原理同样适用。在数学上,这个原理称为最大熵原理(the maximum entropy principle)。让我们看一个拼音转汉字的简单的例子。假如输入的拼音是“wang-xiao-bo“,利用语言模型,根据有限的上下文 (比如前两个词 ), 我们能给出两个最常见的名字“ 王小波 ” 和“ 王晓波 ” 。至于要唯一确定是哪个名字就难了,即使利用较长的上下文也做不到。当然,我们知道如果通篇文章是介绍文学的, 作家王小波的可能性就较大;而在讨论两岸关系时,台湾学者王晓波的可能性会较大。在上面的例子中,我们只需要综合两类不同的信息, 即主题信息和上下文信息。虽然有不少凑合的办法, 比如:分成

4、成千上万种的不同的主题单独处理,或者对每种信息的作用加权平均等等, 但都不能准确而圆满地解决问题,这样好比以前我们谈到的行星运动模型中的小圆套大圆打补丁的方法。在很多应用中,我们需要综合几十甚至上百种不同的信息,这种小圆套大圆的方法显然行不通。数学上最漂亮的办法是最大熵(maximum entropy)模型,它相当于行星运动的椭圆模型。“ 最大熵” 这个名词听起来很深奥,但是它的原理很简单,我们每天都在用。说白了,就是要保留全部的不确定性,将风险降到最小。回到我们刚才谈到的拼音转汉字的例子,我们已知两种信息,第一,根据语言模型,wangxiao-bo可以被转换成王晓波和王小波; 第二,根据主题

5、,王小波是作家,黄金时代的作者等等,而王晓波是台湾研究两岸关系的学者。因此,我们就可以建立一个最大熵模型,同时满足这两种信息。现在的问题是,这样一个模型是否存在。匈牙利著名数学家、信息论最高奖香农奖得主希萨( Csiszar )证明,对任何一组不自相矛盾的信息,这个最大熵模型不仅存在,而且是唯一的。而且它们都有同一个非常简单的形式- 指数函数。下面公式是根据上下文(前两个词)和主题预测下一个词的最大熵模型,其中w3 是要预测的词(王晓波或者王小波) w1 和 w2 是它的前两个字(比如说它们分别是“ 出版” ,和“”),也就是其上下文的一个大致估计, subject 表示主题。我们看到,在上面

6、的公式中,有几个参数lambda 和 Z ,他们需要通过观测数据训练出来。最大熵模型在形式上是最漂亮的统计模型,而在实现上是最复杂的模型之一。我们上次谈到用最大熵模型可以将各种信息综合在一起。我们留下一个问题没有回答, 就是如何构造最大熵模型。 我们已经所有的最大熵模型都是指数函数的形式,现在只需要确定指数函数的参数就可以了,这个过程称为模型的训练。最原始的最大熵模型的训练方法是一种称为通用迭代算法GIS(generalized iterative scaling) 的迭代算法。 GIS 的原理并不复杂,大致可以概括为以下几个步骤:(1) 假定第零次迭代的初始模型为等概率的均匀分布。(2) 用

7、第 N 次迭代的模型来估算每种信息特征在训练数据中的分布,如果超过了实际的,就把相应的模型参数变小;否则,将它们便大。(3) 重复步骤2 直到收敛。GIS 最早是由 Darroch和 Ratcliff 在七十年代提出的。但是,这两人没有能对这种算法的物理含义进行很好地解释。后来是由数学家希萨(Csiszar) 解释清楚的,因此,人们在谈到这个算法时, 总是同时引用 Darroch和 Ratcliff 以及希萨的两篇论文。 GIS 算法每次迭代的时间都很长,需要迭代很多次才能收敛,而且不太稳定,即使在64 位计算机上都会出现溢出。因此,在实际应用中很少有人真正使用GIS 。大家只是通过它来了解最

8、大熵模型的算法。八十年代,很有天才的孪生兄弟的达拉皮垂(Della Pietra)在 IBM 对 GIS 算法进行了两方面的改进,提出了改进迭代算法IIS (improved iterative scaling)。这使得最大熵模型的训练时间缩短了一到两个数量级。这样最大熵模型才有可能变得实用。即使如此,在当时也只有IBM 有条件是用最大熵模型。由于最大熵模型在数学上十分完美,对科学家们有很大的诱惑力, 因此不少研究者试图把自己的问题用一个类似最大熵的近似模型去套。谁知这一近似,最大熵模型就变得不完美了,结果可想而知,比打补丁的凑合的方法也好不了多少。于是,不少热心人又放弃了这种方法。第一个在实

9、际信息处理应用中验证了最大熵模型的优势的,是宾夕法尼亚大学马库斯的另一个高徒原 IBM 现微软的研究员拉纳帕提(AdwaitRatnaparkhi)。拉纳帕提的聪明之处在于他没有对最大熵模型进行近似, 而是找到了几个最适合用最大熵模型、而计算量相对不太大的自然语言处理问题,比如词性标注和句法分析。拉纳帕提成功地将上下文信息、词性(名词、动词和形容词等)、句子成分(主谓宾)通过最大熵模型结合起来,做出了当时世界上最好的词性标识系统和句法分析器。 拉纳帕提的论文发表后让人们耳目一新。拉纳帕提的词性标注系统,至今仍然是使用单一方法最好的系统。科学家们从拉纳帕提的成就中,又看到了用最大熵模型解决复杂的

10、文字信息处理的希望。但是,最大熵模型的计算量仍然是个拦路虎。我在学校时花了很长时间考虑如何简化最大熵模型的计算量。终于有一天,我对我的导师说,我发现一种数学变换,可以将大部分最大熵模型的训练时间在IIS 的基础上减少两个数量级。我在黑板上推导了一个多小时,他没有找出我的推导中的任何破绽,接着他又回去想了两天,然后告诉我我的算法是对的。从此,我们就建造了一些很大的最大熵模型。这些模型比修修补补的凑合的方法好不少。即使在我找到了快速训练算法以后,为了训练一个包含上下文信息,主题信息和语法信息的文法模型(language model),我并行使用了 20 台当时最快的SUN 工作站,仍然计算了三个月

11、。 由此可见最大熵模型的复杂的一面。最大熵模型, 可以说是集简与繁于一体, 形式简单,实现复杂。值得一提的是, 在 Google的很多产品中,比如机器翻译,都直接或间接地用到了最大熵模型。讲到这里,读者也许会问, 当年最早改进最大熵模型算法的达拉皮垂兄弟这些年难道没有做任何事吗?他们在九十年代初贾里尼克离开IBM 后,也退出了学术界, 而到在金融界大显身手。他们两人和很多IBM 语音识别的同事一同到了一家当时还不大,但现在是世界上最成功对冲基金 (hedge fund)公司- 文艺复兴技术公司(Renaissance Technologies)。我们知道,决定股票涨落的因素可能有几十甚至上百种

12、,而最大熵方法恰恰能找到一个同时满足成千上万种不同条件的模型。 达拉皮垂兄弟等科学家在那里,用于最大熵模型和其他一些先进的数学工具对股票预测,获得了巨大的成功。从该基金1988 年创立至今,它的净回报率高达平均每年34% 。也就是说,如果1988 年你在该基金投入一块钱,今天你能得到200 块钱。这个业绩,远远超过股神巴菲特的旗舰公司伯克夏哈撒韦(Berkshire Hathaway)。同期,伯克夏哈撒韦的总回报是16 倍。值得一提的是,信息处理的很多数学手段,包括隐含马尔可夫模型、子波变换、贝叶斯网络等等,在华尔街多有直接的应用。由此可见,数学模型的作用。HMM (隐马尔可夫模型)隐马尔可夫

13、模型 (Hidden Markov Model,HMM)是统计模型,它用来描述一个含有隐含未知参数的马尔可夫过程。其难点是从可观察的参数中确定该过程的隐含参数。然后利用这些参数来作进一步的分析,例如模式识别。是在被建模的系统被认为是一个马尔可夫过程与未观测到的(隐藏的)的状态的统计马尔可夫模型。下面用一个简单的例子来阐述:假设我手里有三个不同的骰子。第一个骰子是我们平常见的骰子(称这个骰子为D6 ),6 个面,每个面( 1,2,3,4,5,6)出现的概率是 1/6 。第二个骰子是个四面体(称这个骰子为 D4),每个面( 1,2,3,4)出现的概率是 1/4 。第三个骰子有八个面(称这个骰子为

14、D8 ),每个面( 1,2,3,4,5,6,7,8)出现的概率是 1/8 。假设我们开始掷骰子, 我们先从三个骰子里挑一个,挑到每一个骰子的概率都是1/3 。然后我们掷骰子,得到一个数字,1,2,3,4,5,6,7,8 中的一个。不停的重复上述过程,我们会得到一串数字,每个数字都是1,2,3,4,5,6,7,8 中的一个。例如我们可能得到这么一串数字(掷骰子10 次): 1 6 3 5 2 7 3 5 2 4 这串数字叫做可见状态链。 但是在隐马尔可夫模型中, 我们不仅仅有这么一串可见状态链,还有一串隐含状态链。在这个例子里,这串隐含状态链就是你用的骰子的序列。比如,隐含状态链有可能是: D6

15、 D8 D8 D6 D4 D8 D6 D6 D4 D8 一般来说, HMM 中说到的马尔可夫链其实是指隐含状态链,因为隐含状态(骰子)之间存在转换概率(transition probability) 。 在我们这个例子里, D6 的下一个状态是 D4 , D6 ,D8 的概率都是 1/3 。D4 ,D8 的下一个状态是 D4 ,D6 ,D8 的转换概率也都一样是1/3 。这样设定是为了最开始容易说清楚,但是我们其实是可以随意设定转换概率的。比如,我们可以这样定义, D6 后面不能接 D4 ,D6 后面是 D6 的概率是 0.9 ,是 D8 的概率是 0.1 。这样就是一个新的 HMM 。同样的

16、,尽管可见状态之间没有转换概率,但是隐含状态和可见状态之间有一个概率叫做输出概率( emission probability)。就我们的例子来说,六面骰(D6 )产生 1 的输出概率是 1/6 。产生 2,3,4,5,6 的概率也都是 1/6 。我们同样可以对输出概率进行其他定义。比如,我有一个被赌场动过手脚的六面骰子,掷出来是1 的概率更大,是1/2 ,掷出来是 2,3,4,5,6 的概率是 1/10 。其实对于 HMM 来说,如果提前知道所有隐含状态之间的转换概率和所有隐含状态到所有可见状态之间的输出概率,做模拟是相当容易的。但是应用HMM 模型时候呢,往往是缺失了一部分信息的,有时候你知道骰子有几种,每种骰子是什么,但是不知道掷出来的骰子序列;有时候你只是看到了很多次掷骰子的结果,剩下的什么都不知道。 如果应用算法去估计这些缺失的信息,就成了一个很重要的问题。这些算法我会在下面详细讲。如果你只想看一个简单易懂的例子,就不需

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 行业资料 > 其它行业文档

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号