南开大学22春《网络爬虫与信息提取》补考试题库答案参考34

上传人:cl****1 文档编号:473056298 上传时间:2023-03-06 格式:DOCX 页数:11 大小:12.25KB
返回 下载 相关 举报
南开大学22春《网络爬虫与信息提取》补考试题库答案参考34_第1页
第1页 / 共11页
南开大学22春《网络爬虫与信息提取》补考试题库答案参考34_第2页
第2页 / 共11页
南开大学22春《网络爬虫与信息提取》补考试题库答案参考34_第3页
第3页 / 共11页
南开大学22春《网络爬虫与信息提取》补考试题库答案参考34_第4页
第4页 / 共11页
南开大学22春《网络爬虫与信息提取》补考试题库答案参考34_第5页
第5页 / 共11页
点击查看更多>>
资源描述

《南开大学22春《网络爬虫与信息提取》补考试题库答案参考34》由会员分享,可在线阅读,更多相关《南开大学22春《网络爬虫与信息提取》补考试题库答案参考34(11页珍藏版)》请在金锄头文库上搜索。

1、南开大学22春网络爬虫与信息提取补考试题库答案参考1. PyMongo更新操作有( )。A.updateB.update_allC.update_oneD.update_many参考答案:CD2. “curl http:/爬虫服务器IP地址:6800/cancel.json-d project=工程名-d job=爬虫JOBID”该命令的作用是启动爬虫。( )A.正确B.错误参考答案:B3. mitmproxy的强大之处在于它还自带一个mitmdump命令。这个命令可以用来运行符合一定规则的Python脚本。( )A.正确B.错误参考答案:A4. 可以通过( )绕过网站登录。A.session

2、B.cookiesC.moonpiesD.localstorage参考答案:B5. 网站返回的Headers中经常有Cookies,可以用mitmdump脚本使用print函数把Cookies打印出来。( )网站返回的Headers中经常有Cookies,可以用mitmdump脚本使用print函数把Cookies打印出来。( )A.正确B.错误参考答案:B6. PyMongo中的查找方法的参数是哪种数据结构( )A.列表B.元组C.字典D.集合参考答案:C7. Python中Object=obj_1:1,obj_2:2,则Objcet.get(boj_3,3)是( )。A.1B.2C.3D.

3、无输出参考答案:C8. 爬虫的源代码通过公开不会对被爬虫网站造成影响。( )A.正确B.错误参考答案:B9. Python中写CSV文件的writerows方法参数为字典类型。( )T.对F.错参考答案:F10. 网站返回的Headers中经常有Cookies,可以用mitmdump脚本使用print函数把Cookies打印出来。( )T.对F.错参考答案:F11. HTTP常用状态码表明请求被正常处理的有( )。A.200B.301C.302D.204参考答案:AD12. Python中( )容器有推导式Python中( )容器有推导式A.列表B.元组C.字典D.集合参考答案:ACD13.

4、在有spiders何setting.py这两项的情况下,可以写出爬虫并且保存数据,items.py和pipelines.py文件是原作者的失误而导致的冗余文件。( )T.对F.错参考答案:F14. Robo 3T与RoboMongo是完全不一样的软件。( )Robo 3T与RoboMongo是完全不一样的软件。( )A.正确B.错误参考答案:B15. 在中间人攻击中,攻击者可以拦截通信双方的通话,并插入新的内容或者修改原有内容。( )在中间人攻击中,攻击者可以拦截通信双方的通话,并插入新的内容或者修改原有内容。( )A.正确B.错误参考答案:A16. 插入数据时,MongoDB会自动添加一列“

5、_id”,也就是自增ID,每次自动加1。( )T.对F.错参考答案:F17. Python中线程池map( )方法第二个参数是( )Python中线程池map( )方法第二个参数是( )A.列表B.元组C.字典D.集合参考答案:A18. MongoDB支持对查询到的结果进行排序。排序的方法为sort( )。它的格式为:handler.find( ).sort(&39;列名&39;, 1或-1或0)。( )MongoDB支持对查询到的结果进行排序。排序的方法为sort( )。它的格式为:handler.find( ).sort(列名, 1或-1或0)。( )A.正确B.错误参考答案:B19. 设

6、置了这个中间件以后,仍然需要输入账号密码可以成功得到登录以后才能看到的HTML。( )A.正确B.错误参考答案:B20. 要实现Charles对Android抓包,其过程比iOS稍微复杂一点。这是因为不同的Andorid设备,安装证书的入口可能不一样。( )要实现Charles对Android抓包,其过程比iOS稍微复杂一点。这是因为不同的Andorid设备,安装证书的入口可能不一样。( )A.正确B.错误参考答案:A21. Scrapy作为一个爬虫的框架,它在单机环境下运行时就可以获得最大性能优势。( )Scrapy作为一个爬虫的框架,它在单机环境下运行时就可以获得最大性能优势。( )A.正

7、确B.错误参考答案:B22. 自己能查看的数据,允许擅自拿给第三方查看。( )T.对F.错参考答案:F23. Python中使用下面代码打开文件也需要对文件进行close关闭操作 with open(文件路径,文件操作方式,encoding=utf-8)as f。( )A.正确B.错误参考答案:B24. Redis中使用lrange读取数据后数据也会删除。( )A.正确B.错误参考答案:B25. 在Mac OS下安装MongoDB使用命令( )install mongodb。A.brewB.apt-getC.sudoD.apt参考答案:A26. 需要登录的网站一般通过GET请求就可以实现登录。

8、( )A.正确B.错误参考答案:B27. Python正则表达式模块的findall方法如果没有匹配到结果,则返回结果为( )Python正则表达式模块的findall方法如果没有匹配到结果,则返回结果为( )A.空B.空列表C.空元组D.不返回参考答案:B28. 对Charles设置代理时,Ip可以设置为127.0.0.1,端口为8888。( )T.对F.错参考答案:T29. 爬虫中间件的激活需要另外写一个文件来进行。( )A.正确B.错误参考答案:B30. ( )是Scrapy官方开发的,用来部署、运行和管理Scrapy爬虫的工具。A.ScrapydB.ScrapyDeployC.Depl

9、oyD.Scrapy_Deploy参考答案:A31. Charles和Chrome开发者工具相比,只是多了一个搜索功能。( )A.正确B.错误参考答案:B32. 网络爬虫的用途有( )。A.收集数据B.尽职调查C.提高流量D.攻击服务器参考答案:ABC33. 在对XPath返回的对象再次执行XPath的时候,子XPath开头需要添加斜线。( )T.对F.错参考答案:F34. 在请求头中设置User-Agent即可正常请求网站。( )在请求头中设置User-Agent即可正常请求网站。( )A.正确B.错误参考答案:B35. 使用UI Automatorr根据坐标来滑动桌面的操作是得到相应控件后

10、使用命令( )。A.swipeB.moveC.scrollD.fly参考答案:A36. process_spider_input(response,spider)是在爬虫运行yield item或者yield scrapy.Request( )的时候调用。( )A.正确B.错误参考答案:B37. Python中( )与元组由类似的数据读取方式。Python中( )与元组由类似的数据读取方式。A.字符串B.列表C.字典D.集合参考答案:AB38. 浏览器用来记录用户状态信息的数据叫( )浏览器用来记录用户状态信息的数据叫( )A.sessionB.cookiesC.moonpiesD.selen

11、ium参考答案:B39. 以下哪个HTML标签表示定义文档的主体( )以下哪个HTML标签表示定义文档的主体( )A.divB.bodyC.headD.footer参考答案:B40. Python中列表生成以后还可以往里面继续添加数据,也可以从里面删除数据。( )A.正确B.错误参考答案:A41. MongoDB 是一个基于分布式文件存储的数据库,速度远快过Redis。( )A.对B.错参考答案:B42. 微信小程序的反爬虫能力要比网页的高很多。( )微信小程序的反爬虫能力要比网页的高很多。( )A.正确B.错误参考答案:B43. 以下哪个命令是linux下解压缩命令?( )A.curlB.t

12、ar-zxvfC.mkdirD.cp参考答案:B44. 如果使用Python的数据结构来做类比的话,MongoDB中库相当于一个( )。A.列表B.元组C.字典D.集合参考答案:C45. charles配置中,安装完成证书以后,在设置中打开“关于本机”,找到最下面的“证书信任设置”,并在里面启动对Charles证书的完全信任。( )charles配置中,安装完成证书以后,在设置中打开“关于本机”,找到最下面的“证书信任设置”,并在里面启动对Charles证书的完全信任。( )A.正确B.错误参考答案:A46. 在charles中使用CTRL+F搜索,JSON里面的中文是可以直接搜索到的。( )T.对F.错参考答案:F47. Cookies一般包含在请求头Headers中。( )T.对F.错参考答案:T48. 所有的异步加载都会向后台发送请求。( )T.对F.错参考答案:F49. Python正则表达式中“.*?”是非贪婪模式,获取最短的能满足条件的字符串。( )A.正确B.错误参考答案:A50. Cookies一般包含在请求头Headers中。( )A.正确B.错误参考答案:A

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 高等教育 > 习题/试题

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号