20秋学期(1709、1803、1809、1903、1909、2003、2009 )《数据科学导论》在线作业(二)

上传人:易** 文档编号:149526790 上传时间:2020-10-27 格式:DOCX 页数:12 大小:24.63KB
返回 下载 相关 举报
20秋学期(1709、1803、1809、1903、1909、2003、2009 )《数据科学导论》在线作业(二)_第1页
第1页 / 共12页
亲,该文档总共12页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

《20秋学期(1709、1803、1809、1903、1909、2003、2009 )《数据科学导论》在线作业(二)》由会员分享,可在线阅读,更多相关《20秋学期(1709、1803、1809、1903、1909、2003、2009 )《数据科学导论》在线作业(二)(12页珍藏版)》请在金锄头文库上搜索。

1、20秋学期(1709、1803、1809、1903、1909、2003、2009 )数据科学导论在线作业(二)共50道题 总分:100分一、单选题共20题,40分1. 对于k近邻法,下列说法错误的是()。A不具有显式的学习过程B适用于多分类任务Ck值越大,分类效果越好D通常采用多数表决的分类决策规则2. 以下哪个不是处理缺失值的方法()A删除记录B按照一定原则补充C不处理D随意填写3. 在一元线性回归模型中,残差项服从()分布。A泊松B正态C线性D非线性4. 一元线性回归中,真实值与预测值的差称为样本的()。A误差B方差C测差D残差5. Apriori算法的加速过程依赖于以下哪个策略( )A抽

2、样B剪枝C缓冲D并行6. 数据库中相关联的两张表都存储了用户的个人信息,但在用户的个人信息发生改变时只更新了一张表中的数据,这时两张表中就有了不一致的数据,这属于()A异常值B缺失值C不一致的值D重复值7. 单层感知机模型属于()模型。A二分类的线性分类模型B二分类的非线性分类模型C多分类的线性分类模型D多分类的非线性分类模型8. 层次聚类适合规模较()的数据集A大B中C小D所有9. 通过构造新的指标-线损率,当超出线损率的正常范围, 则可以判断这条线路的用户可能存在窃漏电等异常行为属于数据变换中的()A简单函数变换B规范化C属性构造D连续属性离散化10. 例如将工资收入属性值映射到-1,1或

3、者0,1内属于数据变换中的()A简单函数变换B规范化C属性构造D连续属性离散化11. 在有统计学意义的前提下,标准化偏回归系数的绝对值越大,说明相应的自变量对y的作用()。A越小B越大C无关D不确定12. 考虑下面的频繁3-项集的集合:1,2,3,1,2,4,1,2,5,1,3,4,1,3,5,2,3,4,2,3,5,3,4,5假定数据集中只有5个项,采用 合并策略,由候选产生过程得到4-项集不包含()A1,2,3,4B1,2,3,5C1,2,4,5D1,3,4,513. 具有偏差和至少()个S型隐含层加上一个()输出层的网络能够逼近任何有理数。A1,线性B2,线性C1,非线性D2,非线性14

4、. 实体识别属于以下哪个过程()A数据清洗B数据集成C数据规约D数据变换15. 通过变量标准化计算得到的回归方程称为()。A标准化回归方程B标准化偏回归方程C标准化自回归方程D标准化多回归方程16. 我们需要对已生成的树()进行剪枝,将树变得简单,从而使它具有更好的泛化能力。A自上而下B自下而上C自左而右D自右而左17. 聚类是一种()。A有监督学习B无监督学习C强化学习D半监督学习18. 利用最小二乘法对多元线性回归进行参数估计时,其目标为()。A最小化方差#最小化标准差B最小化残差平方和C最大化信息熵19. 实体识别的常见形式()A同名异义B异名同义C单位不统一D属性不同20. 以下哪一项

5、不属于数据变换()A简单函数变换B规范化C属性合并D连续属性离散化二、多选题共10题,20分1. 距离度量中的距离可以是()A欧式距离B曼哈顿距离CLp距离DMinkowski距离2. Apriori算法的计算复杂度受()影响。A支持度阈值B项数C事务数D事务平均宽度3. K-means聚类中K值选取的方法是()。A密度分类法B手肘法C大腿法D随机选取4. 聚类的主要方法有()。A划分聚类B层次聚类C密度聚类D距离聚类5. 对于多层感知机,()层拥有激活函数的功能神经元。A输入层B隐含层C输出层6. 什么情况下结点不用划分()A当前结点所包含的样本全属于同一类别B当前属性集为空,或是所有样本在

6、所有属性上取值相同C当前结点包含的样本集为空D还有子集不能被基本正确分类7. 下列选项是BFR的对象是()A废弃集B临时集C压缩集D留存集8. 系统日志收集的基本特征有()A高可用性B高可靠性C可扩展性D高效率9. 下面例子属于分类的是()A检测图像中是否有人脸出现B对客户按照贷款风险大小进行分类C识别手写的数字D估计商场客流量10. k近邻法的基本要素包括()。A距离度量Bk值的选择C样本大小D分类决策规则三、判断题共20题,40分1. 一般而言,信息增益越大,则意味着使用属性a来进行划分所获得的“纯度提升越大”,因此我们可用信息增益来进行决策树的最优特征选择。A对B错2. 给定一个数据集,

7、如果存在某个超平面S能够将数据集的部分正实例点和负实例点正确的划分到超平面的两侧,则称该数据集是线性可分数据集。A对B错3. Pearson相关系数是判断特征之间、以及特征和目标变量之间线性相关关系的统计量。A对B错4. 特征选择和降维都是用于减少特征数量,进而降低模型复杂度、防止过度拟合。A对B错5. 两个对象越相似,他们的相异度就越高。A对B错6. 朴素贝叶斯分类器有简单、高效、健壮的特点,但某些属性可能会降低分类器的性能A对B错7. 获取数据为数据分析提供了素材和依据,这里的数据只包括直接获取的数据。A对B错8. 选择较小的k值,相当于用较小的邻域中的训练实例进行预测,学习的“近似误差”

8、会减小,“估计误差”会增大,预测结果会对近邻的点实例点非常敏感。A对B错9. K均值(K-Means)算法是密度聚类。A对B错10. K-means算法采用贪心策略,通过迭代优化来近似求解。A对B错11. 赤池信息准则是衡量统计模型拟合优良性的一种标准。A对B错12. 平均减少的不纯度越大,则特征重要度越高。A对B错13. 标准BP算法是在读取全部数据集后,对参数进行统一更新的算法。A对B错14. 子集产生本质上是一个搜索过程,该过程可以从空集、随机产生的一个特征子集或者整个特征集开始。A对B错15. 数据科学具有广泛的应用领域,可以应用在社交网络、职业体育、政治竞选A对B错16. 探索性数据分析的特点是研究从原始数据入手,完全以实际数据为依据。A对B错17. 决策树学习的算法通常是一个递归地选择最优特征,并根据该特征对训练数据进行分割,使得各个子数据集有一个最好的分类的过程,这一过程对应着特征空间的划分,也对应着决策树的构建A对B错18. 给定关联规则AB,意味着:若A发生,B也会发生。A对B错19. 信息熵越大,数据信息的不确定性越小。A对B错20. 对于分类数据,经常使用表格,来统计各种类别的数据出现的频率。A对B错

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 高等教育 > 习题/试题

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号