2023年秋江苏开放大学神经网络与深度学习综合大作业

上传人:水*** 文档编号:365430710 上传时间:2023-10-24 格式:DOCX 页数:13 大小:789.19KB
返回 下载 相关 举报
2023年秋江苏开放大学神经网络与深度学习综合大作业_第1页
第1页 / 共13页
亲,该文档总共13页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

《2023年秋江苏开放大学神经网络与深度学习综合大作业》由会员分享,可在线阅读,更多相关《2023年秋江苏开放大学神经网络与深度学习综合大作业(13页珍藏版)》请在金锄头文库上搜索。

1、2023年秋江苏开放大学神经网络与深度学习综合大作业注意:学习平台题目可能是随机,题目顺序与本答案未必一致,同学们在本页按“Ctrl+F”快捷搜索题目中“关键字”就可以快速定位题目,一定注意答案对应的选项,如果答案有疑问或遗漏,请在下载网站联系上传者进行售后。题型:单选题客观题分值2分难度:一般得分:21下面哪个叙述是对的?Dropout对一个神经元随机屏蔽输入权重Dropconnect对一个神经元随机屏蔽输入和输出权重A:都是对的B:1是错的,2是对的C:都是错的D:1是对的,2是错的学生答案:C:老师点评:题型:单选题客观题分值2分难度:一般得分:22图片修复是需要人类专家来进行修复的,这

2、对于修复受损照片和视频非常有帮助。下图是一个图像修复的例子。现在人们在研究如何用深度学习来解决图片修复的问题。对于这个问题,哪种损失函数适用于计算像素区域的修复?A:欧式距离损失函数(Euclidean loss)B:两种方法皆可C:负对数似然度损失函数(Negative-log Likelihood loss)D:两种方法均不可学生答案:B:老师点评:题型:单选题客观题分值2分难度:一般得分:23Dropout是一种在深度学习环境中应用的正规化手段。它是这样运作的:在一次循环中我们先随机选择神经层中的一些单元并将其临时隐藏,然后再进行该次循环中神经网络的训练和优化过程。在下一次循环中,我们又

3、将隐藏另外一些神经元,如此直至训练结束。根据以上描述,Dropout技术在下列哪种神经层中将无法发挥显著优势?A:均不对B:卷积层C:RNN层D:仿射层学生答案:C:老师点评:题型:单选题客观题分值2分难度:一般得分:24你有一个63x63x16的输入,有32个过滤器进行卷积,每个过滤器的大小为77,步幅为1,你想要使用“same”的卷积方式,请问padding的值是多少?A:2B:1C:7D:3学生答案:D:老师点评:题型:单选题客观题分值2分难度:一般得分:25Dropout率和正则化有什么关系?(提示:我们定义Dropout率为保留一个神经元为激活状态的概率)A:Dropout率越高,正

4、则化程度越高B:Dropout率越高,正则化程度越低学生答案:B:老师点评:题型:单选题客观题分值2分难度:一般得分:26深度学习中,不经常使用的初始化参数W(权重矩阵)的方法是哪种?A:高斯分布初始化B:MSRA初始化C:Xavier初始化D:常量初始化学生答案:D:老师点评:题型:单选题客观题分值2分难度:一般得分:27深度学习中的不同最优化方式,如SGD,ADAM下列说法中正确的是A:同样的初始学习率情况下,ADAM比SGD容易过拟合B:同样的初始学习率情况下,ADAM收敛速度总是快于SGD方法C:在实际场景下,应尽最使用ADAM,避免使用SGD:D:相同超参数数是情况下,比起白适应的学

5、习率调整方式,SGD加手动调节通常会取得更好效果学生答案:D:老师点评:题型:单选题客观题分值2分难度:一般得分:28普通反向传播算法和随时间的反向传播算法(BPTT)有什么技术上的不同?A:与普通反向传播不同的是,BPTT会在每个时间步长内迭加所有对应权重的梯度B:与普通反向传播不同的是,BPTT会在每个时间步长内减去所有对应权重的梯度学生答案:A:老师点评:题型:单选题客观题分值2分难度:一般得分:29下列关于深度学习说法错误的是A:CNN相比于全连接的优势之一是楼型复杂度低,缓解过拟合B:LSTM在一定程度上解决了传统RNN梯度满失或梯度爆炸的问题C:只要参数设置合理,深险学习的效果至少

6、应优于传统机器学习算法学生答案:C:老师点评:题型:单选题客观题分值2分难度:一般得分:210下面哪种方法没办法直接应用于自然语言处理的任务?A:主成分分析(PCA)B:循环神经网络C:卷积神经网络D:去语法模型学生答案:A:老师点评:题型:单选题客观题分值2分难度:一般得分:211深度学习中的卷积神经网络属于机器学习中的那哪种模型A:深度监督学习B:深度无监督学习C:深度强化学习D:深度半监督学习学生答案:A:老师点评:题型:单选题客观题分值2分难度:一般得分:212在CNN中使用11卷积时,下列哪一项是正确的?A:由于小的内核大小,它会减少过拟合B:所有上述C:可以用于特征池D:它可以帮助

7、降低维数学生答案:B:老师点评:题型:单选题客观题分值2分难度:一般得分:213请问以下和神经网络中的dropout作用机制类似的是?A:BoostingB:BaggingC:都不是D:Stacking学生答案:B:老师点评:题型:单选题客观题分值2分难度:一般得分:214关于神经网络中经典使用的优化器,以下说法正确的是A:相比于SGD或RMSprop等优化器,Adam9收做效果是最好的B:相比于Adam或RMSprop等优化器,SGD的收效效果是最好的C:对于轻量级神经网络,使用Adam比使用RMSprop更合适D:Adam的收数速度比RMSprop学生答案:B:老师点评:题型:单选题客观题

8、分值2分难度:一般得分:215以下关于深度神经网络的说法中错误的是A:使用梯度裁剪(gradient clipping)有助于减缓梯度爆炸问题B:若batch size过小,batch normalization的效果会出现退化C:在使用SGD训练时,若训练loss的变化逐渐平缓不再明显下降时,通常可以通过减少learning rate的方式使其再进一步下降D:增大L2正则项的系数有助于减缓梯度消失问题学生答案:D:老师点评:题型:单选题客观题分值2分难度:简单得分:216深度学习可以用在下列哪些NLP任务中?A:机器翻译B:问答系统C:情感分析D:所有选项学生答案:D:老师点评:题型:单选题

9、客观题分值2分难度:一般得分:217以下哪个是深度学习中神经网络的激活函数A:ReLUB:Sin(x)C:DropoutD:CE学生答案:A:老师点评:题型:单选题客观题分值2分难度:一般得分:218反向传播算法一开始计算什么内容的梯度,之后将其反向传播?A:预测结果与样本标签之间的误差B:各个输入样本的平方差之和C:都不对D:各个网络权重的平方差之和学生答案:A:老师点评:题型:单选题客观题分值2分难度:一般得分:219在深度学习网络中,以下哪种技术不是主要用来做网络正则化的(提升模型泛化施力)A:PoolingB:dropoutC:Early stoppingD:参数共享学生答案:D:老师

10、点评:题型:单选题客观题分值2分难度:一般得分:220关于CNN,以下说法错议的是A:CNN最初是由Hinton教授提出的B:CNN用于解决图像的分类及回归问题C:第一个经典CNN模型是LeNetD:CNN是一种判别模型学生答案:A:老师点评:题型:单选题客观题分值2分难度:一般得分:221假设你的输入是300300彩色(RGB)图像,并且你使用卷积层和100个过滤器,每个过滤器都是55的大小,请问这个隐藏层有多少个参数(包括偏置参数)?A:2600B:7600C:2501D:7500学生答案:B:老师点评:题型:单选题客观题分值2分难度:一般得分:222Sigmoid是神经网络中最常用到的一

11、种激活函数,除非当梯度太大导致激活函数被弥散,这叫作神经元饱和。这就是为什么ReLU会被提出来,因为ReLU可以使得梯度在正向时输出值与原始值一样。这就是为什么ReLU会被提出来,因为ReLU可以使得梯度在正向时输出值与原始值一样。这是否意味着在神经网络中ReLU单元永远不会饱和?A:错误B:正确学生答案:A:老师点评:题型:单选题客观题分值2分难度:一般得分:223在构建一个神经网络时,batch size通常选择2的次方,比如256和512。这是为什么呢?A:当用偶数是梯度下降优化效果最好B:这些原因都不对C:当内存使用最优时可以方便神经网络并行化D:当不用偶数时,损失值会很奇怪学生答案:

12、C:老师点评:题型:单选题客观题分值2分难度:一般得分:224请阅读以下情景:情景1:你拥有一份阿卡迪亚市(Arcadia city)地图的数据,数据中包含市内和郊区的航拍图片。你的任务是将城市划分为工业区、农场以及山川河流等自然区域等等。情景2:你拥有一份阿卡迪亚市(Arcadia city)地图的数据,数据中包含详细的公路网和各个地标之间的距离,而这些都是以图表的形式呈现的。你的任务是找出任意两个地标之间的最短距离。深度学习可以在情景1中应用但无法应用在情景2中,这种说法是:A:错误B:正确学生答案:A:老师点评:题型:单选题客观题分值2分难度:一般得分:225下列哪些项目是在图像识别任务

13、中使用的数据扩增技术(data augmentation technique)?1 水平翻转(Horizontal flipping)2 随机裁剪(Random cropping)3 随机放缩(Random scaling)4颜色抖动(Color jittering)5 随机平移(Random translation)6 随机剪切(Random shearing)A:所有项目B:2,3,4,5,6C:1,2,4D:1,3,5,6学生答案:A:老师点评:题型:单选题客观题分值2分难度:一般得分:226你认为把下面这个过滤器应用到灰度图像会怎么样?A:会检测垂直边缘B:会检测水平边缘C:会检测图像

14、对比度D:会检测45度边缘学生答案:A:老师点评:题型:单选题客观题分值2分难度:一般得分:227深应学习中,以下哪方法不能解决过拟合的问题A:参数正则化B:减小学习率C:提前停止训练D:数据增强学生答案:B:老师点评:题型:单选题客观题分值2分难度:一般得分:228梯度爆炸问题是指在训练深度神经网络的时候,梯度变得过大而损失函数变为无穷。在RNN中,下面哪种方法可以较好地处理梯度爆炸问题?A:梯度裁剪B:DropoutC:所有方法都不行D:用改良的网络结构比如LSTM和GRUs学生答案:A:老师点评:题型:单选题客观题分值2分难度:一般得分:229对于非连续目标在深度神经网络的优化过程中,下面哪种梯度下降方法是最好的?A:SGD:B:拉格朗日松弛Subgradont methoD:C:AdaGraD:D:1-BFGS学生答案:B:老师点评:题型:单选题客观题分值2分难度:一般得分:230有许多种梯度下降算法,其中两种最出名的方法是I-BFGS和SGD.I-BFGS根据二阶梯度下降而SGD是根据一阶梯度下降的。在下述哪些场景中,会更加偏向于使用I-BFGS而不是SGD?场景1:数据很稀疏场景2:神经网络的参数数量较少A:两种情况都是B:场景1C:场景2D:都不会选择I-BFGS学生答案:A:老师点评:题型:单选题客观题分值2分难度:一般得分:231如果一

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 资格认证/考试 > 成考

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号