南开大学22春《网络爬虫与信息提取》综合作业一答案参考3

上传人:鲁** 文档编号:468997504 上传时间:2023-02-13 格式:DOCX 页数:14 大小:14KB
返回 下载 相关 举报
南开大学22春《网络爬虫与信息提取》综合作业一答案参考3_第1页
第1页 / 共14页
南开大学22春《网络爬虫与信息提取》综合作业一答案参考3_第2页
第2页 / 共14页
南开大学22春《网络爬虫与信息提取》综合作业一答案参考3_第3页
第3页 / 共14页
南开大学22春《网络爬虫与信息提取》综合作业一答案参考3_第4页
第4页 / 共14页
南开大学22春《网络爬虫与信息提取》综合作业一答案参考3_第5页
第5页 / 共14页
点击查看更多>>
资源描述

《南开大学22春《网络爬虫与信息提取》综合作业一答案参考3》由会员分享,可在线阅读,更多相关《南开大学22春《网络爬虫与信息提取》综合作业一答案参考3(14页珍藏版)》请在金锄头文库上搜索。

1、南开大学22春网络爬虫与信息提取综合作业一答案参考1. 下列哪项不是HTTP的请求类型( )下列哪项不是HTTP的请求类型( )A.GETB.POSTC.PUTD.SET参考答案:D2. 自己能查看的数据,允许擅自拿给第三方查看。( )T.对F.错参考答案:F3. 通用搜索引擎大多提供基于关键字的检索,难以支持根据语义信息提出的查询。( )T.对F.错参考答案:T4. 下面Python代码输出为( ):def default_para_without_trap(para=, value=0): if not para: p下面Python代码输出为( ):def default_para_wi

2、thout_trap(para=, value=0): if not para: para = para.append(value) return para print(第一步:.format(default_para_trap(value=100) print(第二步:.format(default_para_trap(value=50)A.第一步:100 第二步:100,50B.第一步:100 第二步:50C.第一步:100 第二步:D.第一步:100 第二步:100参考答案:B5. 通常使用( )工具来模拟浏览器进行爬虫请求A.SeleniumB.ChromeC.ChromeDriver

3、D.WebDriver参考答案:A6. 下面Python代码输出为( ): def default_para_without_trap(para=, value=0): if not para:下面Python代码输出为( ): def default_para_without_trap(para=, value=0): if not para: para = para.append(value) return para print(第一步:.format(default_para_trap(value=100) print(第二步:.format(default_para_trap(valu

4、e=50)A.第一步:100 第二步:100,50B.第一步:100 第二步:50C.第一步:100 第二步:D.第一步:100 第二步:100参考答案:B7. 在请求头中设置User-Agent即可正常请求网站。( )在请求头中设置User-Agent即可正常请求网站。( )A.正确B.错误参考答案:B8. 需要登录的网站一般通过GET请求就可以实现登录。( )A.正确B.错误参考答案:B9. Charles是一个收费软件,如果没有注册,安装以后的前30天可以正常使用。30天以后,虽然功能不会缩水,但每过30分钟Charles会自动关闭一次。( )T.对F.错参考答案:T10. Redis中

5、查询列表长度命令llen中l代表left,即从左侧开始数。( )A.正确B.错误参考答案:B11. Python中跳过本次循环应用关键字( )A.breakB.continueC.exitD.return参考答案:B12. 以下表示请求资源找不到的HTTP状态码为( )以下表示请求资源找不到的HTTP状态码为( )A.200B.301C.404D.500参考答案:C13. 在有spiders何setting.py这两项的情况下,可以写出爬虫并且保存数据,items.py和pipelines.py文件是原作者的失误而导致的冗余文件。( )T.对F.错参考答案:F14. 下面Python代码输出为

6、:( )def default_para_without_trap(para=,value=0):if not para:par下面Python代码输出为:( )def default_para_without_trap(para=,value=0):if not para:para=para.append(value)return para print(第一步:.format(default_para_trap(value=100) print(第二步:.format(default_para_trap(value=50)A.第一步:100第二步:100,50B.第一步:100第二步:50C

7、.第一步:100第二步:D.第一步:100第二步:100参考答案:B15. 所有的异步加载都会向后台发送请求。( )T.对F.错参考答案:F16. cookies在http请求中是明文传输的。( )T.对F.错参考答案:T17. 带上通过Chrome浏览器从评论页面复制而来的( )再发起请求,可以减少爬虫被网站封锁的概率A.CookieB.HtmlC.HeadersD.CSS参考答案:C18. 下面Python代码输出为( ):def default_para_trap(para=, value=0):para.append(value)return下面Python代码输出为( ):def d

8、efault_para_trap(para=, value=0):para.append(value)return paraprint(第一步:.format(default_para_trap(value=100)print(第二步:.format(default_para_trap(value=50)A.第一步:100第二步:100,50B.第一步:100第二步:50C.第一步:100第二步:D.第一步:100第二步:100参考答案:A19. Python中列表生成以后还可以往里面继续添加数据,也可以从里面删除数据。( )Python中列表生成以后还可以往里面继续添加数据,也可以从里面删除

9、数据。( )A.正确B.错误参考答案:A20. PyMongo删除操作有( )PyMongo删除操作有( )A.deleteB.delete_allC.delete_oneD.delete_many参考答案:CD21. device.sleep( )方法是使用UI Automatorr关闭屏幕的命令。( )A.正确B.错误参考答案:A22. 如果目标网站有反爬虫声明,那么对方在被爬虫爬取以后,可以根据( )来起诉使用爬虫的公司。A.服务器日志B.数据库日志记录C.程序日志记录D.服务器监控参考答案:ABCD23. 使用BeautifulSoup对象后可以使用( )来查找内容A.find_all

10、B.findC.searchD.search_all参考答案:AB24. 如果通过爬虫抓取某公司网站的公开数据,分析以后发现这个公司业绩非常好。于是将数据或者分析结果出售给某基金公司,从而获得销售收入。这是合法的。( )A.正确B.错误参考答案:A25. Cookies一般包含在请求头Headers中。( )T.对F.错参考答案:T26. 要使用tesseract来进行图像识别,需要安装两个第三方库( )要使用tesseract来进行图像识别,需要安装两个第三方库( )A.requestsB.beautifulsoupC.PillowD.pytesseract参考答案:CD27. 爬虫的源代码

11、通过公开不会对被爬虫网站造成影响。( )A.正确B.错误参考答案:B28. PyMongo中逻辑查询表示大于等于的符号是( )PyMongo中逻辑查询表示大于等于的符号是( )A.$gtB.$ltC.$gteD.$lte参考答案:C29. robots.txt是一种规范,在法律范畴内。( )robots.txt是一种规范,在法律范畴内。( )A.正确B.错误参考答案:B30. PyMongo中逻辑查询表示不等于的符号是( )。A.$neB.$ltC.$gtD.$eq参考答案:A31. Python中( )容器有推导式Python中( )容器有推导式A.列表B.元组C.字典D.集合参考答案:AC

12、D32. 如果使用Python的数据结构来做类比的话,MongoDB中库相当于一个大字典,大字典里面的每一个键值对都对应了一个集合,Key为集合的名字,Value就是一个( )。A.字典B.集合的名字C.集合D.文档参考答案:C33. 以下表示请求正常处理的HTTP状态码为( )以下表示请求正常处理的HTTP状态码为( )A.200B.301C.404D.500参考答案:A34. Redis中往集合中读数据,使用关键字( )A.popB.spopC.lpopD.range参考答案:B35. Scrapyd可以同时管理多个Scrapy工程里面的多个爬虫的多个版本。( )T.对F.错参考答案:T3

13、6. 当Charles抓包以后,在Mac OS系统下可以按Command+F组合键,在Windows系统下按Ctrl+F组合键打开Charles进行搜索。( )T.对F.错参考答案:T37. HTTP常用状态码表明表明客户端是发生错误的原因所在的有( )HTTP常用状态码表明表明客户端是发生错误的原因所在的有( )A.403B.404C.500D.503参考答案:AB38. 使用UI Automatorr让屏幕向右滚动的操作是得到相应控件后使用命令scroll.horiz.forward( )。( )T.对F.错参考答案:F39. PyMongo中逻辑查询表示小于的符号是( )A.$gtB.$ltC.$gte$lte参考答案:B40. Python中相比于findall方法,search方法对于从超级大的文本里面只找第1个数据特别有用,可以大大提高程序的运行效率。( )T.对F.错参考答案:T41. 以下哪些方法属于Python写CSV文件的方法?( )A.writeheadersB.writeheaderC.writerrowsD.writerow参考答案:ACD42. Pytho

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 高等教育 > 习题/试题

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号