如果你仔细观察, 就不难发现, 懂爬虫, 学习爬虫的人越来越多, 一方面, 互联网可以获取的数据越来越多, 另一方面, 像 Python 这样的编程语言提供越来越多的优秀工具, 让爬虫变得简单, 容易上手.
对于小白来说, 爬虫可能是一件非常复杂, 技术门槛很高的事情. 比如有的人认为学爬虫必须精通 Python, 然后哼哧哼哧系统学习 Python 的每个知识点, 很久之后发现仍然爬不了数据; 有的人则认为先要掌握网页的知识, 遂开始 htmlCSS, 结果入了前端的坑, 瘁......
但掌握正确的方法, 在短时间内做到能够爬取主流网站的数据, 其实非常容易实现. 但建议你从一开始就要有一个具体的目标, 你要爬取哪个网站的哪些数据, 达到什么量级.
那些所有你认为必须的前置知识, 都是可以在完成目标的过程中学到的. 这里给你一条平滑的, 零基础快速入门的学习路径.
1, 学习 Python 包并实现基本的爬虫过程
大部分爬虫都是按 "发送请求 -- 获得页面 -- 解析页面 -- 抽取并储存内容" 这样的流程来进行, 这其实也是模拟了我们使用浏览器获取网页信息的过程.
Python 中爬虫相关的包很多: urllib,requests,bs4,scrapy,pyspider 等, 建议从 requests+Xpath 开始, requests 负责连接网站, 返回网页, Xpath 用于解析网页, 便于抽取数据.
如果你用过 BeautifulSoup, 会发现 Xpath 要省事不少, 一层一层检查元素代码的工作, 全都省略了. 这样下来基本套路都差不多, 一般的静态网站根本不在话下, 豆瓣, 糗事百科, 腾讯新闻等基本上都可以上手了.
2, 掌握各种技巧, 应对特殊网站的反爬措施
当然, 爬虫过程中也会经历一些绝望, 比如被封 IP, 比如各种奇怪的验证码, 字体加密, userAgent 访问限制, 各种动态加载等等.
遇到这些反爬虫的手段, 当然还需要一些高级的技巧来应对, 常规的比如访问频率控制, 使用代理 IP 池, 字体反加密, 抓包, 验证码的 OCR 处理等等.
往往网站在高效开发和反爬虫之间会偏向前者, 这也为爬虫提供了空间, 掌握这些应对反爬虫的技巧, 绝大部分的网站已经难不到你了.
3, 学习 scrapy, 搭建工程化的爬虫
掌握前面的技术一般量级的数据和代码基本没有问题了, 但是在遇到非常复杂的情况, 可能仍然会力不从心, 这个时候, 强大的 scrapy 框架就非常有用了.
scrapy 是一个功能非常强大的爬虫框架, 它不仅能便捷地构建 request, 还有强大的 selector 能够方便地解析 response, 然而它最让人惊喜的还是它超高的性能, 让你可以将爬虫工程化, 模块化.
学会 scrapy, 你可以自己去搭建一些爬虫框架, 你就基本具备爬虫工程师的思维了.
4, 学习数据库基础, 应对大规模数据存储
爬回来的数据量小的时候, 你可以用文档的形式来存储, 一旦数据量大了, 这就有点行不通了. 所以掌握一种数据库是必须的, 学习目前比较主流的 MongoDB 就 OK.
MongoDB 可以方便你去存储一些非结构化的数据, 比如各种评论的文本, 图片的链接等等. 你也可以利用 PyMongo, 更方便地在 Python 中操作 MongoDB.
因为这里要用到的数据库知识其实非常简单, 主要是数据如何入库, 如何进行提取, 在需要的时候再学习就行.
5, 分布式爬虫, 实现大规模并发采集
爬取基本数据已经不是问题了, 你的瓶颈会集中到爬取海量数据的效率. 这个时候, 相信你会很自然地接触到一个很厉害的名字: 分布式爬虫.
分布式这个东西, 听起来很恐怖, 但其实就是利用多线程的原理让多个爬虫同时工作, 需要你掌握 Scrapy + MongoDB + Redis 这三种工具.
Scrapy 前面我们说过了, 用于做基本的页面爬取, MongoDB 用于存储爬取的数据, Redis 则用来存储要爬取的网页队列, 也就是任务队列.
所以有些东西看起来很吓人, 但其实分解开来, 也不过如此. 当你能够写分布式的爬虫的时候, 那么你可以去尝试打造一些基本的爬虫架构了, 实现更加自动化的数据获取.
你看, 这一条学习路径下来, 你已然可以成为老司机了, 非常的顺畅. 所以在一开始的时候, 尽量不要系统地去啃一些东西, 找一个实际的项目 (开始可以从豆瓣, 小猪这种简单的入手), 直接开始就好.
因为爬虫这种技术, 既不需要你系统地精通一门语言, 也不需要多么高深的数据库技术, 高效的姿势就是从实际的项目中去学习这些零散的知识点, 你能保证每次学到的都是最需要的那部分.
当然唯一麻烦的是, 在具体的问题中, 如何找到具体需要的那部分学习资源, 如何筛选和甄别, 是很多初学者面临的一个大问题.
来源: http://www.jianshu.com/p/963395c47b12