管理信息化你是如何开始能写爬虫

上传人:管****问 文档编号:137644446 上传时间:2020-07-10 格式:DOCX 页数:34 大小:241.37KB
返回 下载 相关 举报
管理信息化你是如何开始能写爬虫_第1页
第1页 / 共34页
管理信息化你是如何开始能写爬虫_第2页
第2页 / 共34页
管理信息化你是如何开始能写爬虫_第3页
第3页 / 共34页
管理信息化你是如何开始能写爬虫_第4页
第4页 / 共34页
管理信息化你是如何开始能写爬虫_第5页
第5页 / 共34页
点击查看更多>>
资源描述

《管理信息化你是如何开始能写爬虫》由会员分享,可在线阅读,更多相关《管理信息化你是如何开始能写爬虫(34页珍藏版)》请在金锄头文库上搜索。

1、你是如何开始能写python爬虫?你是如何开始能写python爬虫?看完了简明教程和笨办法学python,想写爬虫,无从做起,需要继续看什么书和练习高野良行业分析 / Pythoner / 爬虫写的特别快 / 机器学习入门中716 人赞同了该回答看了大部分回答不禁叹口气,主要是因为看到很多大牛在回答像“如何入门爬虫”这种问题的时候,一如当年学霸讲解题目,跳步无数,然后留下一句“不就是这样推嘛”,让一众小白菜鸟一脸懵逼。作为一个0起步(之前连python都不会),目前总算掌握基础,开始向上进阶的菜鸟,深知其中的不易,所以我会在这个回答里,尽可能全面、细节地分享给大家从0学习爬虫的各种步骤,如果对

2、你有帮助,请点赞-#我要写爬虫!#Ver.1.2 #Based on: Python 2.7#Author:高野良#原创内容,转载请注明出处首先!你要对爬虫有个明确的认识,这里引用毛主席的思想:在战略上藐视: “所有网站皆可爬”:互联网的内容都是人写出来的,而且都是偷懒写出来的(不会第一页是a,下一页是8),所以肯定有规律,这就给人有了爬取的可能,可以说,天下没有不能爬的网站 “框架不变”:网站不同,但是原理都类似,大部分爬虫都是从 发送请求获得页面解析页面下载内容储存内容 这样的流程来进行,只是用的工具不同在战术上重视: 持之以恒,戒骄戒躁:对于初学入门,不可轻易自满,以为爬了一点内容就什么

3、都会爬了,爬虫虽然是比较简单的技术,但是往深学也是没有止境的(比如搜索引擎等)!只有不断尝试,刻苦钻研才是王道!(为何有种小学作文即视感)|V然后,你需要一个宏伟的目标,来让你有持续学习的动力(没有实操项目,真的很难有动力)我要爬整个豆瓣!.我要爬整个草榴社区!我要爬知乎各种妹子的联系方式*&#%$#|V接着,你需要扪心自问一下,自己的python基本功吼不吼啊?吼啊!OK,开始欢快地学习爬虫吧 !不吼?你还需要学习一个!赶紧回去看廖雪峰老师的教程,2.7的。至少这些功能和语法你要有基本的掌握 : list,dict:用来序列化你爬的东西 切片:用来对爬取的内容进行分割,生成 条件判断(if等

4、):用来解决爬虫过程中哪些要哪些不要的问题 循环和迭代(for while ):用来循环,重复爬虫动作 文件读写操作:用来读取参数、保存爬下来的内容等|V然后,你需要补充一下下面几个内容,作为你的知识储备:(注:这里并非要求“掌握”,下面讲的两点,只需要先了解,然后通过具体项目来不断实践,直到熟练掌握)1、网页的基本知识:基本的HTML语言知识(知道href等大学计算机一级内容即可)理解网站的发包和收包的概念(POST GET)稍微一点点的js知识,用于理解动态网页(当然如果本身就懂当然更好啦)2、一些分析语言,为接下来解析网页内容做准备NO.1 正则表达式:扛把子技术,总得会最基础的:NO.

5、2 XPATH:高效的分析语言,表达清晰简单,掌握了以后基本可以不用正则参考:XPath 教程NO.3 Beautifulsoup:美丽汤模块解析网页神器,一款神器,如果不用一些爬虫框架(如后文讲到的scrapy),配合request,urllib等模块(后面会详细讲),可以编写各种小巧精干的爬虫脚本官网文档:Beautiful Soup 4.2.0 文档参考案例:|V接着,你需要一些高效的工具来辅助(同样,这里先了解,到具体的项目的时候,再熟悉运用)NO.1 F12 开发者工具: 看源代码:快速定位元素 分析xpath:1、此处建议谷歌系浏览器,可以在源码界面直接右键看NO.2 抓包工具:

6、推荐httpfox,火狐浏览器下的插件,比谷歌火狐系自带的F12工具都要好,可以方便查看网站收包发包的信息NO.3 XPATH CHECKER (火狐插件):非常不错的xpath测试工具,但是有几个坑,都是个人踩过的,在此告诫大家:1、xpath checker生成的是绝对路径,遇到一些动态生成的图标(常见的有列表翻页按钮等),飘忽不定的绝对路径很有可能造成错误,所以这里建议在真正分析的时候,只是作为参考2、记得把如下图xpath框里的“x:”去掉,貌似这个是早期版本xpath的语法,目前已经和一些模块不兼容(比如scrapy),还是删去避免报错NO.4 正则表达测试工具:在线正则表达式测试

7、,拿来多练练手,也辅助分析!里面有很多现成的正则表达式可以用,也可以进行参考!|Vok!这些你都基本有一些了解了,现在开始进入抓取时间,上各种模块吧!python的火,很大原因就是各种好用的模块,这些模块是居家旅行爬网站常备的urlliburllib2requests|V不想重复造轮子,有没有现成的框架?华丽丽的scrapy(这块我会重点讲,我的最爱)|V遇到动态页面怎么办?selenium(会了这个配合scrapy无往不利,是居家旅行爬网站又一神器,下一版更新的时候会着重安利,因为这块貌似目前网上的教程还很少)phantomJS(不显示网页的selenium)|V遇到反爬虫策略验证码之类咋整

8、?(不想折腾的直接第四个)PILopencvpybrain打码平台|V然后是数据库,这里我认为开始并不需要非常深入,在需要的时候再学习即可mysqlmongodbsqllite|V爬来的东西怎么用?numpy 数据分析,类似matlab的模块pandas(基于numpy的数据分析模块,相信我,如果你不是专门搞TB级数据的,这个就够了)|V进阶技术多线程、分布式 乱入的分割线 然后学习编程关键的是学以致用,天天捧一本书看不如直接上手操练,下面我通过实际的例子来讲解爬虫比如最近,楼主在豆瓣上认识了一个很可爱的妹子,发现她一直会更新签名和日志,所以没事就会去她主页看看,但一直没有互相加好友(作为一只

9、高冷的天蝎,怎么可以轻易加好友嘛!而且加了好友,你更新什么都会收到推送,那多没意思啊!一点神秘感都没有了!),可还是想及时获得妹子的最新动态,怎么办?于是我就写了个70几行的python脚本,包含爬虫+邮件模块,跑在家里的一台闲置笔记本上,通过计划任务每准点抓取妹子的签名和最新文章一次,发送到我的邮箱。嗯,其实是很简单的技术,代码如下所示:#-*-coding:utf-8-*- #编码声明,不要忘记!import requests #这里使用requests,小脚本用它最合适!from lxml import html #这里我们用lxml,也就是xpath的方法#豆瓣模拟登录,最简单的是co

10、okie,会这个方法,80%的登录网站可以搞定cookie = raw_cookies = #引号里面是你的cookie,用之前讲的抓包工具来获得for line in raw_cookies.split(;):key,value = line.split(=, 1)cookiekey = value #一些格式化操作,用来装载cookies#重点来了!用requests,装载cookies,请求网站page = requests.get(#妹纸的豆瓣主页#,cookies=cookie)#对获取到的page格式化操作,方便后面用XPath来解析tree = html.fromstring(p

11、age.text)#XPath解析,获得你要的文字段落!intro_raw = tree.xpath(/spanid=intro_display/text()#简单的转码工作,这步根据需要可以省略for i in intro_raw:intro = i.encode(utf-8)print intro #妹子的签名就显示在屏幕上啦#接下来就是装载邮件模块,因为与本问题关联不大就不赘述啦怎么样是不是很简单说说我的经历吧我最早是爬虾米,想看看虾米听的比较多的歌是哪些,就爬了虾米全站的歌曲播放数,做了个统计Python爬虫学习记录(1)Xiami全站播放数统计过豆瓣动漫的评分分布豆瓣2100部动漫页

12、面的网页源码(包括评分,导演,类型,简介等信息,附抓取代码)爬百度歌词,做LDAPython爬虫学习记录(2)LDA处理歌词百度音乐带标签,作曲,演唱者,类别的歌词数据爬足彩网站所有盘口,找赢钱算法Python爬虫学习记录(4)传说中的足彩倍投法。好像也不是那么靠谱20112013.5全球所有足球比赛比分数据以及足彩各公司盘口初期不需要登录的网站比较简单,掌握http get post和urllib怎么模拟,掌握lxml、BeautifulSoup等parser库就可以了,多用firefox的firebug或者chrome的调试工具看浏览器是怎么发包的。上面都是不需要登录不需要下文件就可以做到

13、的。之后你可能想要下载文件(图片,音乐,视频等),这个可以试试爬虾米歌曲Python爬虫学习记录(3)用Python获取虾米加心歌曲,并获取MP3下载地址爬wallbase壁纸最近做了个avfun的视频排行,每天定时抓几次acfun,然后下载视频到服务器缓存。Python爬虫学习记录(5)python mongodb + 爬虫 + web.py 的acfun视频排行榜202.120.39.152:8888然后你可能需要模拟用户登录,爬取需要登录的网站(比如人人,新浪微博)。如果只是小规模爬虫建议用浏览器cookie模拟登录Python爬虫学习记录(0)Python 爬虫抓站 记录(虾米,百度,

14、豆瓣,新浪微博)=想说的是,不要为了学而学,可以看看有什么以前觉着很麻烦的操作,是不是能用爬虫简化。爬下来的数据是不是有排序筛选分析的价值。2015-8-31,在csdn上更新了之前失效的百度空间链接,可能有些代码因为网站的改版不适用了,这里主要还是提供一些应用的想法。编辑于2015-08-3141432 条评论分享收藏感谢知乎用户164 人赞同了该回答Python入门网络爬虫之精华版Python学习网络爬虫主要分3个大的版块:抓取,分析,存储另外,比较常用的爬虫框架Scrapy,这里最后也详细介绍一下。首先列举一下本人总结的相关文章,这些覆盖了入门网络爬虫需要的基本概念和技巧:宁哥的小站-网络爬虫当我们在浏览器中输入一个url后回车,后台会发生什么?比如说你输入宁哥的小站专注数据挖掘、机器学习方向。,你就会看到宁哥的小站首页。简单来说这段过程发生了以下四个步骤: 查找域名对应的IP地址。 向IP对应的服务器发送请求。 服务器响应

展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 商业/管理/HR > 企业文档

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号