20秋学期(1709、1803、1809、1903、1909、2003、2009 )《网络爬虫与信息提取》在线作业(一)

上传人:易** 文档编号:149535516 上传时间:2020-10-27 格式:DOCX 页数:14 大小:19.93KB
返回 下载 相关 举报
20秋学期(1709、1803、1809、1903、1909、2003、2009 )《网络爬虫与信息提取》在线作业(一)_第1页
第1页 / 共14页
20秋学期(1709、1803、1809、1903、1909、2003、2009 )《网络爬虫与信息提取》在线作业(一)_第2页
第2页 / 共14页
20秋学期(1709、1803、1809、1903、1909、2003、2009 )《网络爬虫与信息提取》在线作业(一)_第3页
第3页 / 共14页
20秋学期(1709、1803、1809、1903、1909、2003、2009 )《网络爬虫与信息提取》在线作业(一)_第4页
第4页 / 共14页
20秋学期(1709、1803、1809、1903、1909、2003、2009 )《网络爬虫与信息提取》在线作业(一)_第5页
第5页 / 共14页
点击查看更多>>
资源描述

《20秋学期(1709、1803、1809、1903、1909、2003、2009 )《网络爬虫与信息提取》在线作业(一)》由会员分享,可在线阅读,更多相关《20秋学期(1709、1803、1809、1903、1909、2003、2009 )《网络爬虫与信息提取》在线作业(一)(14页珍藏版)》请在金锄头文库上搜索。

1、20秋学期(1709、1803、1809、1903、1909、2003、2009 )网络爬虫与信息提取在线作业(一)共50道题 总共100分一、单选题共20题,40分1. Redis若要进入交互环境,需要打开终端输入()Aredis-cdivBredisCredis-cmdDredis-start2. 使用UI Automatorr根据坐标来滑动桌面的操作是得到相应控件后使用命令()AswipeBmoveCscrollDfly3. Python中Object=obj_1:1,obj_2:2,则Objcet.get(boj_3,3)是()A1B2C3D无输出4. Python中若定义object

2、=12345,则print(object:-1)输出()A1B5C54321D程序报错5. 在Scrapy的目录下,哪个文件负责定义需要爬取的数据?()Aspiders文件夹Bitem.pyCpipedivne.pyDsettings.py6. Python中Object=(1, 2, 3, 4, 5),则Objcet是()A列表B元组C字典D集合7. 如果很多爬虫同时对一个网站全速爬取,那么其实就是对网站进行了()攻击AXSSBDOSCDDOSD跨域8. 当爬虫创建好了之后,可以使用scrapy() 命令运行爬虫。AstartupBstarwarCdrawlDcrawl9. Redis是()

3、数据库A关系数据库B键值数据库C列存数据库D图数据库10. Scrapy中使用Xpath获得的结果调用了.extract方法,结果以()形式生成A列表B元组C字典D集合11. 使用UI Automator打开微信的操作是获取相应图标后使用命令()AtouchBcdivckCpushDhover12. 使用xpath方法的返回类型是()A列表B元组C字典D集合13. Python并导入uiautomator来操作设备的语句是from uiautomator import ()ADeviceBDevicesCJobsDJob14. 使用UI Automatorr点亮屏幕的操作是得到相应控件后使用命

4、令()AwakeupBdivghtCbrightDsleep15. PyMongo中逻辑查询表示不等于的符号是()A$gtB$ltC$eqD$ne16. Python中若定义object=(1, 2, 3, 4, 5),则print(object:3)输出()A345B34C45D12317. Python中列表可以用()方法在末尾添加元素AaddBappendCplusD+18. Python读CSV文件需要哪个方法()ACSVReaderBCsvReaderCDictReaderDFileReader19. 服务器端记录信息确定用户身份的数据是AsessionBcookiesCmoonpi

5、esDlocalstorage20. Python中退出循环应用关键字()AbreakBcontinueCexitDreturn二、多选题共10题,20分1. 以下哪些方法属于Python写CSV文件的方法()AwriteheadersBwriteheaderCwriterrowsDwriterow2. PyMongo更新操作有()AupdateBupdate_allCupdate_oneDupdate_many3. 如果爬虫爬取的是商业网站,并且目标网站使用了反爬虫机制,那么强行突破反爬虫机制可能构成()A非法侵入计算机系统罪B非法获取计算机信息系统数据罪C非法获取计算机数据罪D非法获取系统

6、罪4. 网络爬虫的用途有()A收集数据B尽职调查C提高流量D攻击服务器5. HTTP常用状态码表明表明客户端是发生错误的原因所在的有()A403B404C500D5036. Python中一个函数没有返回值则可以写()A没有returnBreturnCreturn NoneDreturn NULL7. 下列说法错误的是()Amitmproxy的强大之处在于它还自带一个mitmdump命令。这个命令可以用来运行符合一定规则的Python脚本,并在Python脚本里面直接操作HTTP和HTTPS的请求,以及返回的数据包。B命令行中执行mitmdump -s parse_request.py即可运行

7、python 脚本C使用python可以自定义返回的数据包,如 response.headers,就是返回的头部信息D如果返回的是JSON类型的字符串,python无法进行解析。8. 以下HTTP状态码表示服务器本身发生错误的是A400B503C302D5009. Python中有哪些实现多线程方法()Amultiprocess.dummyBthreading.ThreadCprocessDPyMongoDB10. Python中通过Key来从字典object中读取对应的Value的方法有()AobjectkeyBobject.get(key)Cobject.pop(key)Dobject.p

8、op()三、判断题共20题,40分1. 使用UI Automator使屏幕向上滚动一屏的操作是得到相应控件后使用命令scroll.vert.forward()A对B错2. 爬虫登录需要识别验证码可以先把程序关闭,肉眼识别以后再重新运行A对B错3. Python正则表达式中“.*?”是非贪婪模式,获取最短的能满足条件的字符串。A对B错4. Python中使用下面代码打开文件也需要对文件进行close关闭操作with open(文件路径, 文件操作方式, encoding=utf-8) as fA对B错5. mitmproxy的强大之处在于它还自带一个mitmdump命令。这个命令可以用来运行符合

9、一定规则的Python脚本A对B错6. Python正则表达式中“.*”是贪婪模式,获取最长的满足条件的字符串。A对B错7. 如果通过爬虫抓取某公司网站的公开数据,分析以后发现这个公司业绩非常好。于是将数据或者分析结果出售给某基金公司,从而获得销售收入。这是合法的。A对B错8. robots.txt是一种规范,在法律范畴内A对B错9. Charles是一个收费软件,如果没有注册,安装以后的前30天可以正常使用。30天以后,虽然功能不会缩水,但每过30分钟Charles会自动关闭一次A对B错10. 设置了这个中间件以后,仍然需要输入账号密码可以成功得到登录以后才能看到的HTMLA对B错11. P

10、ython中直接对浮点数进行计算有print(0.1+0.2),则结果为0.3A对B错12. 一般来说在页面都通过GET将用户登录信息传递到服务器端。A对B错13. 在Windows中下若要运行Redis可以运行redis-server /usr/local/etc/redis.confA对B错14. 在发送请求时需要注意requests提交的请求头不能与浏览器的请求头一致,因为这样才能隐藏好自己达到获取数据的目的A对B错15. 引用中间件时后面的数字代表的是中间件的执行顺序,例如 AdvanceSpider.middlewares.ProxyMiddleware: 543 中的543A对B错16. Python中列表生成以后还可以往里面继续添加数据,也可以从里面删除数据;A对B错17. 使用Nginx反向代理到Scrapyd以后,Scrapyd本身只需要开通内网访问即可,不许经过输入密码A对B错18. Redis中使用lrange读取数据后数据也会删除A对B错19. Python中相比于findall方法,search方法对于从超级大的文本里面只找第1个数据特别有用,可以大大提高程序的运行效率。A对B错20. 虽然MongoDB相比于MySQL来说,速度快了很多,但是频繁读写MongoDB还是会严重拖慢程序的执行速度。A对B错

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 高等教育 > 习题/试题

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号