22春南开大学《网络爬虫与信息提取》在线作业二满分答案9

上传人:桔**** 文档编号:432876781 上传时间:2022-12-17 格式:DOCX 页数:6 大小:10.15KB
返回 下载 相关 举报
22春南开大学《网络爬虫与信息提取》在线作业二满分答案9_第1页
第1页 / 共6页
22春南开大学《网络爬虫与信息提取》在线作业二满分答案9_第2页
第2页 / 共6页
22春南开大学《网络爬虫与信息提取》在线作业二满分答案9_第3页
第3页 / 共6页
22春南开大学《网络爬虫与信息提取》在线作业二满分答案9_第4页
第4页 / 共6页
22春南开大学《网络爬虫与信息提取》在线作业二满分答案9_第5页
第5页 / 共6页
点击查看更多>>
资源描述

《22春南开大学《网络爬虫与信息提取》在线作业二满分答案9》由会员分享,可在线阅读,更多相关《22春南开大学《网络爬虫与信息提取》在线作业二满分答案9(6页珍藏版)》请在金锄头文库上搜索。

1、22春南开大学网络爬虫与信息提取在线作业二满分答案1. device.sleep( )方法是使用UI Automatorr关闭屏幕的命令。( )A.正确B.错误参考答案:A2. 在MacOS下若要运行Redis可以运行解压以后的文件夹下面的src文件夹中的redis-server文件启动redis服务src/redis-server。( )T.对F.错参考答案:F3. 使用UI Automatorr点亮屏幕的操作是得到相应控件后使用命令( )。A.wakeupB.lightC.brightD.sleep参考答案:A4. 下面Python代码输出为( ):def default_para_wit

2、hout_trap(para=, value=0): if not para: p下面Python代码输出为( ):def default_para_without_trap(para=, value=0): if not para: para = para.append(value) return para print(第一步:.format(default_para_trap(value=100) print(第二步:.format(default_para_trap(value=50)A.第一步:100 第二步:100,50B.第一步:100 第二步:50C.第一步:100 第二步:D.

3、第一步:100 第二步:100参考答案:B5. Redis中的值可以支持( )。A.列表B.哈希C.集合D.有序集合参考答案:ABCD6. robots.txt是一种规范,在法律范畴内。( )robots.txt是一种规范,在法律范畴内。( )A.正确B.错误参考答案:B7. Python写CSV文件需要哪个方法( )Python写CSV文件需要哪个方法( )A.CSVWriterB.CsvWriterC.DictWriterD.FileWriter参考答案:C8. 在Windows中下若要运行Redis可以运行redis-server/usr/local/etc/redis.conf。( )

4、T.对F.错参考答案:F9. process_spider_output(response,result,output)是在下载器中间件处理完成后,马上要进入某个回调函数parse_xxx( )前调用。( )A.正确B.错误参考答案:B10. 以下哪个HTML标签表示定义 HTML 表格中的行( )以下哪个HTML标签表示定义 HTML 表格中的行( )A.B.C.D.参考答案:C11. Python中字符串切片以后的结果还是字符串。( )Python中字符串切片以后的结果还是字符串。( )A.正确B.错误参考答案:A12. 下面代码一共执行循环多少次( ): for i in range(1

5、0): print(i * i)A.9B.10C.11D.0参考答案:B13. 可以通过( )绕过网站登录。A.sessionB.cookiesC.moonpiesD.localstorage参考答案:B14. 爬虫登录需要识别验证码可以先把程序关闭,肉眼识别以后再重新运行。( )A.正确B.错误参考答案:B15. Python并导入uiautomator来操作设备的语句是from uiautomator import( )。A.DeviceB.DevicesC.JobsD.Job参考答案:A16. Python并导入uiautomator来操作设备的语句是from uiautomator i

6、mport( )Python并导入uiautomator来操作设备的语句是from uiautomator import( )A.DeviceB.DevicesC.JobsD.Job参考答案:A17. 当使用Scarpy创建爬虫时,当爬取网易云音乐首页信息时,scrapy genspider的第二个参数直接输入就可以了。( )T.对F.错参考答案:F18. 为了保证数据插入效率,在内存允许的情况下,应该一次性把数据读入内存,尽量减少对MongoDB的读取操作。( )T.对F.错参考答案:T19. BS4可以用来从( )中提取数据A.HTMLB.XMLC.数据库D.JSON参考答案:AB20.

7、HTTP常用状态码表明表明客户端是发生错误的原因所在的有( )。A.403B.404C.500D.503参考答案:AB21. 在Scrapy的目录下,哪个文件负责存放爬虫文件?( )A.spiders文件夹B.item.pyC.pipeline.pyD.settings.py参考答案:A22. Python正则表达式模块的findall方法如果没有匹配到结果,则返回结果为( )Python正则表达式模块的findall方法如果没有匹配到结果,则返回结果为( )A.空B.空列表C.空元组D.不返回参考答案:B23. 使用Charles,可以轻松截获手机App和微信小程序的数据包,从而开发出直接抓取App后台和小程序后台的爬虫。( )使用Charles,可以轻松截获手机App和微信小程序的数据包,从而开发出直接抓取App后台和小程序后台的爬虫。( )A.正确B.错误参考答案:A24. 开源库pytesseract的作用是将图像中文字转换为文本。( )A.正确B.错误参考答案:A25. Scrapy每一次发起请求之前都会在这里检查网址是否重复。因此如果确实需要再一次爬取数据,在Redis中把这个Key删除即可。( )A.正确B.错误参考答案:A

展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 高等教育 > 其它相关文档

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号