贝叶斯分类器经典讲解ppt课件

上传人:工**** 文档编号:578507023 上传时间:2024-08-24 格式:PPT 页数:38 大小:1.91MB
返回 下载 相关 举报
贝叶斯分类器经典讲解ppt课件_第1页
第1页 / 共38页
贝叶斯分类器经典讲解ppt课件_第2页
第2页 / 共38页
贝叶斯分类器经典讲解ppt课件_第3页
第3页 / 共38页
贝叶斯分类器经典讲解ppt课件_第4页
第4页 / 共38页
贝叶斯分类器经典讲解ppt课件_第5页
第5页 / 共38页
点击查看更多>>
资源描述

《贝叶斯分类器经典讲解ppt课件》由会员分享,可在线阅读,更多相关《贝叶斯分类器经典讲解ppt课件(38页珍藏版)》请在金锄头文库上搜索。

1、在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确贝叶斯算法在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确贝叶斯算法贝叶斯,英国数学家。1702年出生于伦敦,做过神甫。1742年成为英国皇家学会会员。1763年4月7日逝世。贝叶斯在数学方面主要研究概率论。他首先将归纳推理法用于概率论基础理论,并创立了贝叶斯统计理论,对于统计决策函数、统计推断、统计的估算等做出了贡献。在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确一

2、个医疗诊断问题有两个可选的假设:病人有癌症、病人无癌症有两个可选的假设:病人有癌症、病人无癌症可用数据来自化验结果:正可用数据来自化验结果:正+和负和负-有先验知识:在所有人口中,患病率是有先验知识:在所有人口中,患病率是0.008对确实有病的患者的化验准确率为对确实有病的患者的化验准确率为98%,对确实,对确实无病的患者的化验准确率为无病的患者的化验准确率为97%总结如下总结如下P(cancer)=0.008, P( cancer)=0.992P(+|cancer)=0.98, P(-|cancer)=0.02P(+| cancer)=0.03, P(-| cancer)=0.97在整堂课的

3、教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确问题:假定有一个新病人,化验结果为正,是否应将病人断定为有癌症?求后验概率P(cancer|+)和P(cancer|+)在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确贝叶斯定理贝叶斯定理 解决上面的问题:已知某条件概率,如何得到两个事件交换后的概率,也就是在已知P(A|B)的情况下如何求得P(B|A)。癌症癌症诊断正诊断正确确诊断正诊断正确确癌症癌症在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,

4、所提出的问题也很明确贝叶斯定理这里先解释什么是条件概率在事情在事情B发生的条件下发生的条件下A发生的条件概率,其发生的条件概率,其求解公式为求解公式为在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确贝叶斯定理 贝叶斯定理的意义在于,我们在生活中经常遇到这种情况:我们可以很容易直接得出P(A|B),P(B|A)则很难直接得出,但我们更关心P(B|A),贝叶斯定理就为我们打通从P(A|B)获得P(B|A)的道路。在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确贝叶斯定理下面不加证

5、明给出贝叶斯定理公式在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确机器语言中的定义表示在没有训练数据前假设A拥有的初始概率。P(A)被称为A的先验概率.P(A|B)表示假设B成立时A的概率机器学习中我们关心的是P(B|A),即给定A时B的成立的概率,称为B的后验概率,在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确贝叶斯定理的解释 P(B|A)随着P(B)和P(A|B)的增长而增长,随着P(A)的增长而减少,即如果A独立于B时被观察到的可能性越大,那么B对A的支持度越小.在

6、整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确评分标准H:假设候选集表示使P(B|A)最大的B值P(A)?_P(A|B)=在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确朴素贝叶斯分类器1、条件独立性给定类标号y,朴素贝叶斯分类器在估计类条件概率时假设属性之间条件独立。条件独立假设可以形式化的表达如下:其中每个训练样本可用一个属性向量X=(x1,x2,x3,xn)表示,各个属性之间条件独立。 在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入

7、深,所提出的问题也很明确朴素贝叶斯分类器比如,对于一篇文章“Good good study,Day day up.” 用一个文本特征向量来表示:x=(Good, good, study, Day, day , up)。一般各个词语之间肯定不是相互独立的,有一定的上下文联系。但在朴素贝叶斯文本分类时,我们假设个单词之间没有联系,可以用一个文本特征向量来表示这篇文章,这就是“朴素”的来历。在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确朴素贝叶斯如何工作 有了条件独立假设,就不必计算X和Y的每一种组合的类条件概率,只需对给定的Y,计算每个

8、Xi的条件概率。后一种方法更实用,因为它不需要很大的训练集就能获得较好的概率估计。在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确估计分类属性的条件概率P(Xi|Y=y)怎么计算呢?它一般根据类别y下包含属性Xi的实例的比例来估计。以文本分类为例,Xi表示一个单词,P(Xi|Y=y)=包含该类别下包含单词的xi的文章总数/ 该类别下的文章总数。在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确贝叶斯分类器举例 假设给定了如下训练样本数据,我们学习的目标是根据给定的天气状况判断你

9、对PlayTennis这个请求的回答是Yes还是No。在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确贝叶斯分类器打网球我们需要利用训练数据计算后验概率P(Yes|x)和P(No|x),如果P(Yes|x)P(No|x),那么新实例分类为Yes,否则为No。在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确贝叶斯分类器举例我们将使用此表的数据,并结合朴素贝叶斯分类器来分我们将使用此表的数据,并结合朴素贝叶斯分类器来分类下面的新实例类下面的新实例:在整堂课的教学中,刘教师总是让学

10、生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确贝叶斯分类器举例P(Outlook = Sunny|No)=3/5P(Temperature = Cool |No) =1/5 P(Humidity = High |No) =4/5P(P(Wind = Strong |No= Strong |No) ) =3/5=3/5在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确贝叶斯分类器举例P(Outlook = Sunny|No)=3/5P(Temperature = Cool |No) =1/5 P(Humidi

11、ty = High |No) =4/5P(P(Wind = Strong |No= Strong |No) ) =3/5=3/5在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确贝叶斯分类器举例P P(Outlook = Sunny|Yes)(Outlook = Sunny|Yes)=2/9=2/9P P(Temprature = Cool |Yes) =(Temprature = Cool |Yes) =3/93/9P P(Humidity = High |Yes) (Humidity = High |Yes) =3/9=3/9P P

12、(Wind = Strong |Yes) (Wind = Strong |Yes) =3/9=3/9在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确P P(Outlook = Sunny|Yes)(Outlook = Sunny|Yes)=2/9=2/9P P(Temprature = Cool |Yes) =(Temprature = Cool |Yes) =3/93/9P P(Humidity = High |Yes) (Humidity = High |Yes) =3/9=3/9P P(Wind = Strong |Yes) (

13、Wind = Strong |Yes) =3/9=3/9贝叶斯分类器举例在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确贝叶斯分类器举例由于大于所以该样本分类为所以该样本分类为NoNo在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确朴素贝叶斯分类器的工作流程在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确条件概率的m估计 假设有来了一个新样本 x1= (Outlook = Cloudy,Temprature = Co

14、ol,Humidity = High,Wind = Strong)要求对其分类。我们来开始计算 P(Outlook = Cloudy|Yes)=0/9=0 P(Outlook = Cloudy |No)=0/5=0 计算到这里,大家就会意识到,这里出现了一个新的属性值,在训练样本中所没有的。如果有一个属性的类条件概率为0,则整个类的后验概率就等于0,我们可以直接得到后验概率P(Yes | x1)= P(No | x1)=0,这时二者相等,无法分类。在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确条件概率的m估计 当训练样本不能覆盖那么

15、多的属性值时,都会出现上述的窘境。简单的使用样本比例来估计类条件概率的方法太脆弱了,尤其是当训练样本少而属性数目又很大时。 解决方法是使用m估计(m-estimate)方法来估计条件概率:n n是是Y Y中的样本总数,中的样本总数,n nc c是是Y Y中取值中取值x xi i的样本数,的样本数,m m是称为等是称为等价样本大小的参数,而价样本大小的参数,而p p是用户指定的参数。是用户指定的参数。如果没有训练集(即如果没有训练集(即n=0n=0),则),则P(xP(xi i|y|yj j)=p, )=p, 因此因此p p可以看可以看作是在作是在Y Y的样本中观察属性值的样本中观察属性值xix

16、i的先验概率。等价样本大的先验概率。等价样本大小决定先验概率和观测概率小决定先验概率和观测概率n nc c/n/n之间的平衡之间的平衡在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确多项式模型 基本原理 在多项式模型中, 设某文档d=(t1,t2,tk),tk是该文档中出现过的单词,允许重复,则: V是训练样本的单词表(即抽取单词,单词出现多次,只算一个),|V|则表示训练样本包含多少种单词。在这里,m=|V|, p=1/|V|。 P( tk|c)可以看作是单词tk在证明d属于类c上提供了多大的证据,而P(c)则可以认为是类别c在整体

17、上占多大比例(有多大可能性)。在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确多项式模型举例给定一个新样本给定一个新样本Chinese Chinese Chinese Chinese Tokyo Chinese Chinese Tokyo JapanJapan,对其进行分类。,对其进行分类。在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确该文本用属性向量表示为d=(Chinese, Chinese, Chinese, Tokyo, Japan)类别集合为Y=yes, no。多

18、项式模型举例在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确字典里包括六个单词P(Chinese | yes)=(5+1)/(8+P(Chinese | yes)=(5+1)/(8+6 6)=6/14=3/7)=6/14=3/7P(Japan | yes)=P(Tokyo | yes)P(Japan | yes)=P(Tokyo | yes)= (0+1)/(8+= (0+1)/(8+6 6)=1/14)=1/14P(Chinese|no)=(1+1)/(3+6)=2/9P(Chinese|no)=(1+1)/(3+6)=2/9P(J

19、apan|no)=P(Tokyo| no) =(1+1)/(3+6)=2/9P(Japan|no)=P(Tokyo| no) =(1+1)/(3+6)=2/9p(yes|d)=(3/7)31/141/148/11=108/1848770.00058417P(no|d)= (2/9)32/92/93/11=32/2165130.00014780因此,因此,这个文档属于个文档属于类别china。在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确伯努利模型1、基本原理在这里,m=2, p=1/2。p( |c=YES)= p( |c=yes)(

20、1-p( |c=yes)在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确伯努利模型举例d=Chinese Chinese d=Chinese Chinese Chinese Tokyo JapanChinese Tokyo Japan在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确伯努利模型举例 P( P(ChineseChinese|yes)=(3+1)/(3+2)=4/5|yes)=(3+1)/(3+2)=4/5 P(Beijing|yes)= P(Macao|yes)=

21、 P(Shanghai |yes)=(1+1)/(3+2)=2/5 P(Japan | yes) P(Japan | yes)=P(Tokyo | yes)=P(Tokyo | yes)=(0+1)/(3+2)=1/5=(0+1)/(3+2)=1/5在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确伯努利模型举例P(P(ChineseChinese|no)=(1+1)/(1+2)=2/3|no)=(1+1)/(1+2)=2/3 P(P(JapanJapan|no)|no)=P(=P(TokyoTokyo| no) | no) =(1+1

22、)/(1+2)=2/3=(1+1)/(1+2)=2/3 P(Beijing|no)P(Beijing|no)= P(Macao|no)= P(Macao|no)= P(Shanghai|no)= P(Shanghai|no)=(0+1)/(1+2)=1/3=(0+1)/(1+2)=1/3在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确伯努利模型举例P(yes | d)=P(yes)P(Chinese|yes) P(Japan|yes) P(Tokyo|yes)(1-P(Beijing|yes) (1-P(Shanghai|yes)(1

23、-P(Macao|yes)=3/44/51/51/5(1-2/5) (1-2/5)(1-2/5)=81/156250.005P(no | d)= 1/42/32/32/3(1-1/3)(1-1/3)(1-1/3)=16/7290.022因此,这个文档不属于类别因此,这个文档不属于类别chinachina。在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确 二者的计算粒度不一样,二者的计算粒度不一样,多项式模型以单词为粒度多项式模型以单词为粒度,伯努利模型以文件为粒度伯努利模型以文件为粒度,因此二者的先验概率和类条件,因此二者的先验概率和

24、类条件概率的计算方法都不同。概率的计算方法都不同。计算后验概率时,对于一个文档计算后验概率时,对于一个文档d d,多项式模型中,只有,多项式模型中,只有在在d d中出现过的单词,才会参与后验概率计算中出现过的单词,才会参与后验概率计算. .伯努利模型中,没有在伯努利模型中,没有在d d中出现,但是在全局单词表中出中出现,但是在全局单词表中出现的单词,也会参与计算,不过是作为现的单词,也会参与计算,不过是作为“反方反方”参与参与. .模型比较在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确模板提供者http:/500,000个可下载的PowerPoint模板、动态剪贴画、背景和视频在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确谢谢观赏WPS OfficeMakePresentationmuchmorefunWPS官方微博kingsoftwps

展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 办公文档 > 教学/培训

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号