机器学习-贝叶斯网络剖析.

上传人:今*** 文档编号:107473563 上传时间:2019-10-19 格式:PPT 页数:13 大小:745.50KB
返回 下载 相关 举报
机器学习-贝叶斯网络剖析._第1页
第1页 / 共13页
机器学习-贝叶斯网络剖析._第2页
第2页 / 共13页
机器学习-贝叶斯网络剖析._第3页
第3页 / 共13页
机器学习-贝叶斯网络剖析._第4页
第4页 / 共13页
机器学习-贝叶斯网络剖析._第5页
第5页 / 共13页
点击查看更多>>
资源描述

《机器学习-贝叶斯网络剖析.》由会员分享,可在线阅读,更多相关《机器学习-贝叶斯网络剖析.(13页珍藏版)》请在金锄头文库上搜索。

1、6.11.4 学习贝叶斯信念网 6.11.5 贝叶斯网的梯度上升训练 6.11.6学习贝叶斯网的结构,6.11.6 学习贝叶斯网,是否可以设计出有效的算法以从训练数据中学习到贝叶斯信念网?对于这一问题有多种可以考虑的框架: 首先网络结构可以预先给出,或可由训练数据中推得。 其次,所有的网络变量可以直接从每个训练样例中观察到,或某些变量不能观察到。 当网络结构预先已知且变量可以从训练样例中完全获得时,通过学习得到条件概率表就比较简单,只需要像在朴素贝叶斯分类器中那样估计表中的条件概率项。,网络结构已知,但只有一部分变量值能在数据中观察到,学习就困难得多了。这一问题在某种程度上类似于在人工神经网络

2、中学习隐藏单元的权值,其中输入输出的节点值由训练样例给出,但隐藏单元的值未指定。针对这一问题,采用简单的梯度上升过程以学习条件概率表中的项。这一梯度上升过程搜索一个假设空间,它对应于条件概率表中所有可能的项。在梯度上升中被最大化的指标函数是给定假设h下观察到训练数据D的概率P(D|h)。就相当于极大似然假设,6.11.5 贝叶斯网的梯度上升训练,梯度上升的规则:通过lnP(D|h)的梯度来使P(D|h)最大化。其中 代表条件概率表中的一个表项。 为在给定父节点 取值 时,网络变量 值为 的概率。,例如: 图6-3中条件概率表中最右上方 的表项,那么 为变量Campfire, 是其父节点的元组,

3、 =true,并且 = 。,具体的算法:对于每个 ,lnP(D|h)的梯度是对每个 求导数得到。 (6.25) 例如:为计算对应图6-3中表左上方的表项 的导数,需要对D中的每个训练样例d计算P(Camfire=True,Storm=False,BusTourGroup=False|d)。 当训练样例d中无法观察到这些变量时, 这些概率可用标准的贝叶斯网络推理的过程中计算得到。,用梯度上升来更新每一个 + 其中 是一个小常量,称为学习率。 将权值 归一化,保持有效的概率在区间0,1之间,还要求 对所有的i,k保持1 像其他基于梯度算法中的那样,该算法只能保证寻找到局部最优解,6.11.6学习贝

4、叶斯网的结构,当网络的结构是未知的,数据是可完全观察,学习贝叶斯因此网络也是很困难的。此时常采用K2的启发式搜索算法来学习网络结构。 K2算法用于贪婪搜索(总是做出在当前看来是做好的选择,而不是从整体出发)处理模型选择问题:先定义一种评价网络结构的优劣的评分函数,再从一个网络的开始,根据事先确定的最大父节点数目和节点的次序,选择分值最高的节点作为该节点的父节点。,K2算法使用后验概率作为评分函数:,算法的伪代码:,过程描述:k2的出发点是一个包含所有节点,但却没有边的无向图。在搜索的过程中,k2按顺序逐个考察 中的变量,确定其父亲节点,然后添加相应的边。 对某一变量Xj,假设K2已经找到它的一些父亲节点 。如果| |u,即Xj的父亲节点的个数还未达到上界u,那么就继续为它寻找父节点,具体的做法是首先考虑那些在 中排在Xj之前,但还不是Xj的父节点的变量,从这些变量中选出Xi,使得新的家族CH评分,达到最大;然后将 与旧家族评分比较;如果 ,则把Xi 添加为Xj的节点;否则停止为Xj寻找父亲节点。,谢谢大家,

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 高等教育 > 大学课件

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号