题库机器学习专项面试题型介绍及解析--第12期

上传人:ja****ee 文档编号:149211413 上传时间:2020-10-25 格式:DOC 页数:6 大小:98KB
返回 下载 相关 举报
题库机器学习专项面试题型介绍及解析--第12期_第1页
第1页 / 共6页
题库机器学习专项面试题型介绍及解析--第12期_第2页
第2页 / 共6页
题库机器学习专项面试题型介绍及解析--第12期_第3页
第3页 / 共6页
题库机器学习专项面试题型介绍及解析--第12期_第4页
第4页 / 共6页
题库机器学习专项面试题型介绍及解析--第12期_第5页
第5页 / 共6页
点击查看更多>>
资源描述

《题库机器学习专项面试题型介绍及解析--第12期》由会员分享,可在线阅读,更多相关《题库机器学习专项面试题型介绍及解析--第12期(6页珍藏版)》请在金锄头文库上搜索。

1、1.贝叶斯网络的结构形式1. head-to-head依上图,所以有:P(a,b,c) = P(a)*P(b)*P(c|a,b)成立,即在c未知的条件下,a、b被阻断(blocked),是独立的,称之为head-to-head条件独立。2. tail-to-tail考虑c未知,跟c已知这两种情况: 在c未知的时候,有:P(a,b,c)=P(c)*P(a|c)*P(b|c),此时,没法得出P(a,b) = P(a)P(b),即c未知时,a、b不独立。 在c已知的时候,有:P(a,b|c)=P(a,b,c)/P(c),然后将P(a,b,c)=P(c)*P(a|c)*P(b|c)带入式子中,得到:P

2、(a,b|c)=P(a,b,c)/P(c) = P(c)*P(a|c)*P(b|c) / P(c) = P(a|c)*P(b|c),即c已知时,a、b独立。3. head-to-tail还是分c未知跟c已知这两种情况: c未知时,有:P(a,b,c)=P(a)*P(c|a)*P(b|c),但无法推出P(a,b) = P(a)P(b),即c未知时,a、b不独立。 c已知时,有:P(a,b|c)=P(a,b,c)/P(c),且根据P(a,c) = P(a)*P(c|a) = P(c)*P(a|c),可化简得到:所以,在c给定的条件下,a,b被阻断(blocked),是独立的,称之为head-to-

3、tail条件独立。这个head-to-tail其实就是一个链式网络,如下图所示:根据之前对head-to-tail的讲解,我们已经知道,在xi给定的条件下,xi+1的分布和x1,x2xi-1条件独立。意味着啥呢?意味着:xi+1的分布状态只和xi有关,和其他变量条件独立。通俗点说,当前状态只跟上一状态有关,跟上上或上上之前的状态无关。这种顺次演变的随机过程,就叫做马尔科夫链(Markov chain)。对于马尔科夫链我们下一节再细讲。2.生成式模型和判别式模型的区别? 判别模型(discriminative model)通过求解条件概率分布P(y|x)或者直接计算y的值来预测y。线性回归(Li

4、near Regression),逻辑回归(Logistic Regression),支持向量机(SVM), 传统神经网络(Traditional Neural Networks),线性判别分析(Linear Discriminative Analysis),条件随机场(Conditional Random Field) 生成模型(generative model)通过对观测值和标注数据计算联合概率分布P(x,y)来达到判定估算y的目的。朴素贝叶斯(Naive Bayes), 隐马尔科夫模型(HMM),贝叶斯网络(Bayesian Networks)和隐含狄利克雷分布(Latent Diric

5、hlet Allocation)、混合高斯模型3.求极大似然估计量的一般步骤是什么?它的特点是又是什么?(1)写出似然函数;(2)对似然函数取对数,并整理;(3)求导数;(4)解似然方程。特点:1. 比其他估计方法更加简单;2. 收敛性:无偏或者渐近无偏,当样本数目增加时,收敛性质会更好;3. 如果假设的类条件概率模型正确,则通常能获得较好的结果。但如果假设模型出现偏差,将导致非常差的估计结果。4.解释朴素贝叶斯算法里面的先验概率、似然估计和边际似然估计?1. 先验概率:就是因变量(二分法)在数据集中的比例。这是在你没有任何进一步的信息的时候,是对分类能做出的最接近的猜测。2. 似然估计:似然

6、估计是在其他一些变量的给定的情况下,一个观测值被分类为1的概率。例如,“FREE”这个词在以前的垃圾邮件使用的概率就是似然估计。3. 边际似然估计:边际似然估计就是,“FREE”这个词在任何消息中使用的概率。5.简述你对概率图模型的理解概率图模型是用图来表示变量概率依赖关系的理论,结合概率论与图论的知识,利用图来表示与模型有关的变量的联合概率分布。由图灵奖获得者Pearl开发出来。如果用一个词来形容概率图模型(Probabilistic Graphical Model)的话,那就是“优雅”。对于一个实际问题,我们希望能够挖掘隐含在数据中的知识。概率图模型构建了这样一幅图,用观测结点表示观测到的

7、数据,用隐含结点表示潜在的知识,用边来描述知识与数据的相互关系,最后基于这样的关系图获得一个概率分布,非常“优雅”地解决了问题。概率图中的节点分为隐含节点和观测节点,边分为有向边和无向边。从概率论的角度,节点对应于随机变量,边对应于随机变量的依赖或相关关系,其中有向边表示单向的依赖,无向边表示相互依赖关系。概率图模型分为*贝叶斯网络(Bayesian Network)和马尔可夫网络(Markov Network)*两大类。贝叶斯网络可以用一个有向图结构表示,马尔可夫网络可以表 示成一个无向图的网络结构。更详细地说,概率图模型包括了朴素贝叶斯模型、最大熵模型、隐马尔可夫模型、条件随机场、主题模型等,在机器学习的诸多场景中都有着广泛的应用。

展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 大杂烩/其它

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号