人工智能考试必备知识点范本

上传人:1824****985 文档编号:278349971 上传时间:2022-04-17 格式:DOCX 页数:16 大小:20.72KB
返回 下载 相关 举报
人工智能考试必备知识点范本_第1页
第1页 / 共16页
人工智能考试必备知识点范本_第2页
第2页 / 共16页
人工智能考试必备知识点范本_第3页
第3页 / 共16页
人工智能考试必备知识点范本_第4页
第4页 / 共16页
人工智能考试必备知识点范本_第5页
第5页 / 共16页
点击查看更多>>
资源描述

《人工智能考试必备知识点范本》由会员分享,可在线阅读,更多相关《人工智能考试必备知识点范本(16页珍藏版)》请在金锄头文库上搜索。

1、人工智能考试必备知识点 第三章约束推理 约束的定义:一个约束通常是指一个包含若干变量的关系表达式,用以表示这些变量所必须满足的条件。 贪心算法:贪心法把构造可行解的工作分阶段来完成。在各个阶段,选择那些在某些意义下是局部最优的方案,期望各阶段的局部最优的选择带来整体最优。 回溯算法:有些问题需要彻底的搜索才能解决问题,然而,彻底的搜索要以大量的运算时间为代价,对于这种情况可以通过回溯法来去掉一 些分支,从而大大减少搜索的次数 第四章定性推理 定性推理的定义是从物理系统、生命系统的结构描述出发,导出行为描述, 以便预测系统的行为并给出原因解释。定性推理采用系统部件间的局部结构规则来解释系统行为,

2、 即部件状态的变化行为只与直接相邻的部件有关 第六章贝叶斯网络 贝叶斯网络的定义: 贝叶斯网络是表示变量间概率依赖关系的有向无环图,这里每个节点表示领域变量,每条边表示变量间的概率依赖关系,同时对每个节点都对应着一个条件概率分布表(CPT) ,指明了该变量与父节点之间概率依赖的数量关系。 条件概率:条件概率:我们把事件B已经出现的条件下,事件A发生的概率记做为P(A|B)。并称之为在B出现的条件下A出现的条件概率,而称P(A)为无条件概率。 贝叶斯概率:先验概率、后验概率、联合概率、全概率公式、贝叶斯公式 先验概率: 先验概率是指根据历史的资料或主观判断所确定的各事件发生的概率,该类概率没能经

3、过实验证实,属于检验前的概率,所以称之为先验概率 后验概率: 后验概率一般是指利用贝叶斯公式,结合调查等方式获取了新的附加信息,对先验概率进行修正后得到的更符合实际的概率 联合概率: 联合概率也叫乘法公式,是指两个任意事件的乘积的概率,或称之为交事件的概率。 贝叶斯问题的求解步骤 定义随机变量、确定先验分布密度、利用贝叶斯定理计算后验分布密度、利用计算得到的厚颜分布密度对所求问题作出推断 贝叶斯网络的构建 为了建立贝叶斯网络,第一步,必须确定为建立模型有关的变量及其解释。为此,需要:(1)确定模型的目标,即确定问题相关的解释;(2)确定与问题有关的许多可能的观测值,并确定其中值得建立模型的子集

4、;(3)将这些观测值组织成互不相容的而且穷尽所有状态的变量。这样做的结果不是唯一的。第二步,建立一个表示条件独立断言的有向无环图第三步指派局部概率分布 p(xi|Pai)。在离散的情形,需要为每一个变量 Xi 的各个父节 点的状态指派一个分布。 第七章归纳学习 归纳学习是符号学习中研究得最为广泛的一种方法。给定关于某个概念的一系列已知的 正例和反例,其任务是从中归纳出一个一般的概念描述。 归纳学习能够获得新的概念,创立新的规则,发现新的理论。它的一般的操作是泛化和特化泛化用来扩展一假设的语义信息,以使其能够包含更多的正例, 应用于更多的情况。特化是泛化的相反的操作,用于限制概念描述的应用范围。

5、 用程序语言描述定义上述内容的过程就是归纳学习程序,用于书写归纳程序的语言称为 归纳程序设计语言, 能执行归纳程序,完成特定归纳学习任务的系统叫做归纳学习系统。归纳学习系统可独立,也可嵌入另一较大的知识处理系统。一般归纳程序的输入是科学实验中个别观察对象(过程)的描述, 输出是一类对象的总体特征描述或几类对象的分类判别描述。与演绎相对照, 归纳的开始前提是具体事实而不是一般公理,推理目标是形式化解释事 实的似然一般断言和预见新事实。归纳推理企图从给定现象或它的一部分的具体观察推导出一个完整的、正确的描述。归纳的两个方面?似然假设的产生和它的有效性(真值状态的建立),只有前者对归纳学习研究具备基

6、本意义, 而假设有效性的问题是次要的,因为假定所产生的假设由人类专家判断, 由已知的演绎推理和数理统计的方法测试。 归纳学习可以分为实例学习、观察与发现学习。 实例学习, 又叫概念获取, 它的任务是确定概念的一般描述,这个描述应能解释所有给定的正例并排除所有给定的反例。这些正反例由信息源提供。信息源的来源非常广泛,可以是自然现象,也可以是实验结果。实例学习是根据教师给以分类的正反例进行学习,因此是有教师学习。 观察与发现学习又称描述的泛化。这类学习没有教师的帮助,它要产生解释所有或大多数观察的规律和规则。这类学习包括概念聚类、构造分类、发现定理、形成理论等。观察与发现学习是由未经分类的观察学习

7、,或由系统自身的功能去发现,因此是无教师学习。 因为归纳推理是从有限的、不完全的知识状态推出完全的知识状态,故归纳推理本身就是 一种非单调推理。但归纳推理本身又无法验证新知识正确与否, 而非单调逻辑则为我们处理非单调归纳知识提供理论基础。 归纳原理的基本思想是在大量观察的基础上通过假设形成一个科学理论。所有观察都是 单称命题,而一个理论往往是领域内的全称命题,从单称命题过渡到全称命题从逻辑上来说没有必然的蕴涵关系,对于不能观察的事实往往默认它们成立。我们把归纳推理得到的归纳断言作为知识库中的知识使用,而且做为默认知识使用, 当出现与之矛盾的新命题时, 可以推翻原有的由归纳推理得出的默认知识,

8、以保持系统知识的一致性。 单个概念的归纳学习的一个通用定义是: (1) 给定由全体实例组成的一个实例空间,每个实例具有某些属性。 (2) 给定一个描述语言,该语言的描述能力包括描述每一个实例(通过描述改实例的属性来实现)及描述某些实例集,称为概念。 (3) 每次学习时,由实例空间抽出某些实例,称这些实例构成的集合为正例集。再由实例空间抽出另外一些实例,称这些实例为反例集。 (4) 如果能够在有限步内找到一个概念A,它完全包含正例集,并且与反例集的交集为空 7.2.1 归纳学习的一般模式 为了较具体地刻画概念的归纳学习,这里给出归纳学习的一般模式。 给定: 观察语句集(事实)F:这是有关某类对象

9、中个别具体对象的知识或某一对象的部分特 征的知识。 假定的初始归纳断言(可空):是关于目标的泛化项或泛化描述。 背景知识:背景知识定义了在观察语句和所产生的候选归纳断言上的假定和限制,以 及任何有关问题领域知识。有关问题领域知识包括特化所找归纳断言的期望性质的择优标准。 描述符定义域是描述符所能取值的集合。如人的体温在 34 C 44 C 之间,则描述符“体温”只能在这个范围内取值。描述符类型则是根据描述符定义域元素之间的关系决定的。根 据描述符定义域的结构,有三种基本类型: (1) 名称性描述符。这种描述符的定义域由独立的符号或名字组成,即值集中值之间没 有结构关系。例如水果、人名等。 (2

10、)线性描述符。该类描述符值集中的元素是一个全序集。例如,资金、温度、重量、 产量等都是线性描述符。表示序数、区间、比率和绝对标度的变量都是线性描述符的特例。将一个集合映射成一个完全有序集的函数也是线性描述符。 (3) 结构描述符。其值集是一个树形的图结构,反映值之间的生成层次。在这样的结构中,父节点表示比子节点更一般的概念 7.3 偏置变换 。所谓偏置,是指概念学习中除了正、反例子外 ,影响假设选择的所有因素。这些因素包括:描述假设的语言。程序考虑假设的空间。 按什么顺序假设的过程。承认定义的准则,即研究过程带有已知假设可以终止还是应该继续挑选一个更好的假设。采用偏置方法,学习部分选择不同的假

11、设,会导致不同的归纳跳跃。 偏置有两个特点: (1) 强偏置是把概念学习集中于相对少量的假设;反之,弱偏置允许概念学习考虑相对 大量的假设。 (2) 正确偏置允许概念学习选择目标概念,不正确偏置就不能选择目标概念 7.4 变型空间方法 变型空间(Version Space)方法以整个规则空间为初始的假设规则集合 H。依据训练例子 中的信息,它对集合 H 进行泛化或特化处理,逐步缩小集合 $H$。最后使 $H$收敛为只含有要求的规则。由于被搜索的空间 H 逐步缩小,故称为变型空间 消除候选元素的两种改进算法 冲突匹配算法:它用于学习“参数化结构表示”所表达的概念。在上述的修改 S过程中,总是对

12、S作尽量少的泛化,以便覆盖新的正例。如果描述形式为谓词表达式,则这个过程相当于寻找最大的公共子表达式,这只需要去掉最少的合取条件。 最大的合一泛化:这个算法用于寻找谓词表达式的最大的合一泛化。它类似于冲突匹配算法,但是它使用的表示语言允许在匹配中多对一的参数联系。 变形空间方法的两个缺点 (1) 抗干扰能力差。 所有数据驱动方法(包括变型空间方法)都难以处理有干扰的训练例子。由于算法得到 的概念应满足每个训练例子的要求,所以一个错误例子会造成很大影响。有时错误例子使程序得到错误概念,有时得不到概念,这时 H 成为空集。Mitchell(1978)提出的解决方法是保存多个 G 和 S 集合。例如

13、,S0 符合所有正例,S1 符合除一个正例外其它的正例,S2 等类似。如果 G0 超过 S0,则 H0 为空集。这说明没有任何一个概念符合全部例子于是程序去找 G1 和 S1,以便得到 H1。如果 H1 也空,则找 H2。 (2) 学习析取概念。 变型空间方法不能发现析取的概念。有些概念是析取的。例如,PARENT 可能是父亲,也 可能是母亲。这表示为PARENT(x)=FATHER(x) PARENT(x)=MOTHER(x),由于集合 G 和集合 S的元素都是合取形式,所以上述算法找不到析取概念。 7.5 AQ 归纳学习算法 1969 年, Michalski 提出了 AQ 学习算法, 这

14、是一种基于实例的学习方法。AQ 算法生成的选择假设的析取, 覆盖全部正例, 而不覆盖任何反例。它的基本算法如下: 算法 7.3 简单的 AQ 学习算法。 (1) 集中注意一个实例(作为种子); (2) 生成该实例的一致性泛化式(称作 star); (3) 根据偏好标准, 从 star 选择最优的泛化式(假设)。如果需要, 特化该假设; (4) 如果该假设覆盖了全部实例, 则停止; 否则选择一个未被假设覆盖的实例,转到(2)。 7.6 CLS 学习算法 CLS 算法的主要思想是从一个空的决策树出发,通过添加新的判定结点来改善原来的决 策树,直至该决策树能够正确地将训练实例分类为止。 7.5 ID3 算法 (1)选出整个训练实例集 X 的规模为 W 的随机子集 X1(W 称为窗口规模,子集称为窗口) (2)以使得(7.29)式的值最小为标准,选取每次的测试属性形成当前窗口的决策树; (3)顺序扫描所有训练实例,找出当前的决策树的例外,如果没有例外则训练结束; (4)组合当前窗口的一些训练实例与某些在(3)中找到的例外形成新的窗口,转(2)。 为了在步骤(4)建立新的窗口, Quinlan 试验了两种不同的策略:一个策略是

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 办公文档 > 其它办公文档

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号