21春南开大学《网络爬虫与信息提取》在线作业-2参考答案

上传人:住在山****ck 文档编号:203396634 上传时间:2021-10-21 格式:DOCX 页数:9 大小:19KB
返回 下载 相关 举报
21春南开大学《网络爬虫与信息提取》在线作业-2参考答案_第1页
第1页 / 共9页
21春南开大学《网络爬虫与信息提取》在线作业-2参考答案_第2页
第2页 / 共9页
21春南开大学《网络爬虫与信息提取》在线作业-2参考答案_第3页
第3页 / 共9页
21春南开大学《网络爬虫与信息提取》在线作业-2参考答案_第4页
第4页 / 共9页
21春南开大学《网络爬虫与信息提取》在线作业-2参考答案_第5页
第5页 / 共9页
亲,该文档总共9页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

《21春南开大学《网络爬虫与信息提取》在线作业-2参考答案》由会员分享,可在线阅读,更多相关《21春南开大学《网络爬虫与信息提取》在线作业-2参考答案(9页珍藏版)》请在金锄头文库上搜索。

1、21春南开大学网络爬虫与信息提取在线作业-2参考答案通常使用()工具来模拟浏览器进行爬虫请求A.SeleniumB.ChromeC.ChromeDriverD.WebDriver下面代码一共执行循环多少次(): for i in range(10): print(i * i)A.9B.10C.11D.0Redis是()数据库A.关系数据库B.键值数据库C.列存数据库D.图数据库Python中跳过本次循环应用关键字()A.breakB.continueC.exitD.return打码平台一般通过()识别验证码。A.人工识别B.机器学习识别C.光学字符识别D.深度学习识别PyMongo中逻辑查询表

2、示等于的符号是()A.$gtB.$ltC.$eq$ne带上通过Chrome浏览器从评论页面复制而来的()再发起请求,可以减少爬虫被网站封锁的概率A.CookieB.HtmlC.HeadersD.CSSPython中以下哪个容器里的元素不能重复()A.列表B.元组C.字典D.集合Redis中往集合中读数据,使用关键字()A.popB.spopC.lpopD.rangeRedis是一个开源的使用()语言编写A.ANSI CB.C+C.JAVAD.Python可以通过()绕过网站登录。A.sessionB.cookiesC.moonpiesD.localstorage使用了RedisSpider作为

3、爬虫的父类以后,爬虫会直接监控()中的数据,并不读取start_urls中的数据。A.RedisB.RedisSpiderC.SpiderD.MongoDBHTTP常用状态码表明服务器上没有请求的资源的是()A.500B.503C.403D.404Redis中从集合中查看有多少个值,用关键字()A.scardB.cardC.countD.distinct采用以下()技术可以实现异步加载A.HTMLB.AJAXC.CSSD.HTTP当爬虫创建好了之后,可以使用scrapy()命令运行爬虫。A.startupB.starwarC.drawlD.crawl使用UI Automatorr输入文字的操作

4、是得到相应控件后使用命令()A.settextB.setC.set_textD.text要使用Python来操作UI Automator从而控制手机,需要安装一个第三方库()A.uiautomatorB.automatorC.ui_automatorD.pyautomator使用xpath方法的返回类型是()A.列表B.元组C.字典D.集合Python中列表可以用()方法在末尾添加元素A.addB.appendC.plusD.+Redis中的值可以支持()A.列表B.哈希C.集合D.有序集合以下哪些方法属于Python写CSV文件的方法()A.writeheadersB.writeheader

5、C.writerrowsD.writerow下列关于mitmproxy的使用说法正确的是()A.mitmproxy的端口为8080端口B.设置好代理以后,在手机上打开一个App或者打开一个网页,可以看到mitmproxy上面有数据滚动C.用鼠标在终端窗口上单击其中的任意一个请求,可以显示这个数据包的详情信息D.如果要访问HTTPS网站,还需要安装mitmproxy的证书如果爬虫爬取的是商业网站,并且目标网站使用了反爬虫机制,那么强行突破反爬虫机制可能构成()A.非法侵入计算机系统罪B.非法获取计算机信息系统数据罪C.非法获取计算机数据罪D.非法获取系统罪Python中一个函数可以有()个ret

6、urn语句A.0B.1C.多个D.2HTTP常用状态码表明表明服务器本身发生错误的有()A.403B.404C.500D.503如果目标网站有反爬虫声明,那么对方在被爬虫爬取以后,可以根据()来起诉使用爬虫的公司A.服务器日志B.数据库日志记录C.程序日志记录D.服务器监控常用的会话跟踪技术是()A.sessionB.cookiesC.moonpiesD.localstoragePython中()与元组由类似的数据读取方式A.字符串B.列表C.字典D.集合cookies的缺点是()A.实现自动登录B.跟踪用户状态C.http中明文传输D.增加http请求的流量Python中列表生成以后还可以往

7、里面继续添加数据,也可以从里面删除数据。()T.对F.错Redis的列表是一个单向队列。()T.对F.错requests中get请求方法的使用为requests.get(网址, data=data)。()T.对F.错scrapy与selenium结合可以实现直接处理需要异步加载的页面。()T.对F.错为了在安卓手机上安装证书,需要先发送证书到手机里面。在Charles中选择“Help”-“SSL Proxying”-“Save Charles Root Certificate”命令,可以将Charles的证书保存到计算机桌面。()T.对F.错XPath提取出来的内容是一个SelectorLis

8、t对象,它的第0个元素就是网页的源代码。()T.对F.错当Charles抓包以后,在Mac OS系统下可以按Command+F组合键,在Windows系统下按Ctrl+F组合键打开Charles进行搜索。()T.对F.错Python中直接对浮点数进行计算有print(0.1+0.2),则结果为0.3。()T.对F.错在对XPath返回的对象再次执行XPath的时候,子XPath开头需要添加斜线。()T.对F.错Python中写CSV文件的writerows方法参数为字典类型。()T.对F.错网站返回的Headers中经常有Cookies,可以用mitmdump脚本使用print函数把Cooki

9、es打印出来。()T.对F.错在安装Scarpy的依赖库时,由于Visual C+ Build Tools的安装速度很慢,为了节省时间,可以和安装Twisted同时进行。()T.对F.错Charles和Chrome开发者工具相比,只是多了一个搜索功能。()T.对F.错Scrapy的工程名字不能使用scrapy,否则爬虫会无法运行。除此以外工程名不受限制。()T.对F.错在发送请求时需要注意requests提交的请求头不能与浏览器的请求头一致,因为这样才能隐藏好自己达到获取数据的目的。()T.对F.错Cookies一般包含在请求头Headers中。()T.对F.错Python中相比于findal

10、l方法,search方法对于从超级大的文本里面只找第1个数据特别有用,可以大大提高程序的运行效率。()T.对F.错当使用Scarpy创建爬虫时,当爬取网易云音乐首页信息时,scrapy genspider的第二个参数直接输入就可以了。()T.对F.错chrome开发者工具没法对数据进行搜索。如果想知道一个特定的异步加载内容来自哪个请求,必须在“Network”选项卡里面一个请求一个请求地进行查看。()T.对F.错插入数据时,MongoDB会自动添加一列“_id”,也就是自增ID,每次自动加1。()T.对F.错 参考答案:A参考答案:B参考答案:B参考答案:B参考答案:A参考答案:C参考答案:C参考答案:D参考答案:B参考答案:A参考答案:B参考答案:A参考答案:D参考答案:A参考答案:B参考答案:D参考答案:C参考答案:A参考答案:A参考答案:B参考答案:ABCD参考答案:ACD参考答案:ABCD参考答案:AB参考答案:ABCD参考答案:CD参考答案:ABCD参考答案:AB参考答案:AB参考答案:CD参考答案:T参考答案:F参考答案:F参考答案:T参考答案:T参考答案:F参考答案:T参考答案:F参考答案:F参考答案:F参考答案:F参考答案:F参考答案:F参考答案:F参考答案:F参考答案:T参考答案:T参考答案:F参考答案:T参考答案:F

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 高等教育 > 习题/试题

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号