opener 和 handleer
我们之前一直使用的是 urllib2.urlopen(url) 这种形式来打开网页, 它是一个特殊的 opener(也就是模块帮我们建好的),opener 是 urllib2.OpenerDirectory 的实例.
但是基本的 urlopen() 方法不支持代理, cookie 等其他的 HTTP/HTTPS 高级功能. 所以要支持这些功能:
使用相关的 Handler 处理器来创建特定功能的处理器对象;
然后通过
urllib2.build_opener()
方法来使用这些处理器对象, 创建自定义 opener 对象;
使用自定义的 opener 对象, 调用 open() 方法来发送请求.
如果程序里所有的请求都使用自定义的 opener 对象, 可以使用
urllib2.install_opener()
将自定义的 opener 对象定义为全局 opener, 表示如果之后凡是调用 urlopen, 都将使用这个 opener(根据自己的需求来选择)
简单的自定义 opener()
- #-*- coding:utf-8 -*-
- #12.urllib2_opener.py
- import urllib2
- # 构建一个 HTTPHandler 处理器
- http_handler = urllib2.HTTPHandler();
- # 调用 urllib2.build_opener() 方法, 创建支持处理 HTTP 请求的 opener
- opener = urllib2.build_opener(http_handler)
- # 构建 Request 请求
- request = urllib2.Request("http://www.baidu.com")
- # 调用自定义的 opener 对象的 open() 方法, 发送 request 请求
- response = opener.open(request)
- # 获取服务器响应内容
- print(response.read())
这种方式发送请求得到的结果, 和使用 urllib2.urlopen() 发送 HTTP/HTTPS 请求得到的结果是一样的.
如果在 HTTPHandler() 括号里面增加 debuglevel=1 参数, 还会将 Debug Log 打开, 这样程序在执行的时候, 会把收包和发包的报头在屏幕上自动打印出来, 方便调试, 有时可以省去抓包的工作.
- # 仅需要修改的代码部分:
- # 构建一个 HTTPHandler 处理器对象, 支持处理 HTTP 请求, 同时开启 Debug Log,debuglevel 值默认 0
- http_handler = urllib2.HTTPHandler(debuglevel=1)
ProxyHandler 处理器 (代理设置)
使用代理 IP, 这是爬虫 / 反爬虫的第二大招, 通常也是最好用的.
很多网站会检测某一段时间某个 IP 的访问次数 (通过流量统计, 系统日志等), 如果访问字数多的不像正常人, 它会禁止这个 IP 的访问.
所以我们可以设置一些代理服务器, 每隔一段时间换一个代理, 就算 IP 被禁止, 依然可以换个 IP 继续爬取.
urllib2 中通过 ProxyHandler 来设置使用代理服务器, 下面代码说明如何使用自定义 opener 来使用代理:
- #-*- coding:utf-8 -*-
- #urllib2_proxyhandler.py
- import urllib2
- # 构建了两个代理 Handler, 一个有代理 IP, 一个没有代理 IP
- httpproxy_handler = urllib2.ProxyHandler({"http":"120.76.55.49:8088"})
- nullproxy_handler = urllib2.ProxyHandler({})
- proxyswitch = True #定义一个代理开关
- # 通过 urllib2.build_opener() 方法使用这些代理 Handler 对象, 创建自定义 opener
- if proxyswitch:
- opener = urllib2.build_opener(httpproxy_handler)
- else:
- opener = urllib2.build_opener(nullproxy_handler)
- request = urllib2.Request("http://www.baidu.com/")
- #1. 如果这么写, 只有使用 opener.open() 方法发送请才使用自定义的代理, 而 urlopen() 使用自定义代理
- response = opener.open(request)
- #2. 如果这么写, 就是 opener 应用到全局, 之后所有的, 不管是 opener.open() 还是 urlopen() 发送请求, 都将使用自定义代理
- # urllib2.install_opener(opener)
- # response = urllib2.urlopen(request)
- print(response.read())
免费的开放代理获取基本没有成本, 我们可以在一些代理网站上收集上收集这些免费代理, 测试后如果可以用, 就把它收集起来用在爬虫上面.
免费短期代理网站举例:
西刺免费代理 IP http://www.xicidaili.com/
快代理免费代理 http://www.kuaidaili.com/free/inha/
Proxy360 代理 http://www.proxy360.cn/default.aspx
全网代理 IP http://www.goubanjia.com/free/index.shtml
如果代理 IP 足够多, 就可以像随机获取 User-Agent 一样, 随机选择一个代理去访问网站.
- #-*- coding:utf-8 -*-
- #14.urllib2_proxylisthandler.py
- import urllib2
- import random
- proxy_list = [
- {"http" : "124.88.67.81:80"},
- {"http" : "124.88.67.81:80"},
- {"http" : "124.88.67.81:80"},
- {"http" : "124.88.67.81:80"},
- {"http" : "124.88.67.81:80"}
- ]
- # 随机选择一个代理
- proxy = random.choice(proxy_list)
- # 使用选择的代理创建一个代理处理器
- proxy_handler = urllib2.ProxyHandler(proxy)
- opener = urllib2.build_opener(proxy_handler)
- urllib2.install_opener(opener)
- request = urllib2.Request("http://www.baidu.com/")
- response = opener.open(request)
- print(response.read())
但是, 这些免费开放代理一般会有很多人都在使用, 而且代理寿命短, 速度慢, 匿名度不高, HTTP/HTTPS 支持不稳定等缺点 (免费没好货).
但是, 专业爬虫工程师或爬虫公司会使用高品质的私密代理, 这些代理通常需要找专门的代理供应商购买, 再通过用户名 / 密码授权使用 (舍不得孩子讨不到狼)
HTTPPasswordMgrWithDefaultRealm()
HTTPPasswordMgrWithDefaultRealm() 类创建一个密码管理对象, 用来保存 HTTP 请求相关的用户名和密码, 主要应用两个场景:
1. 验证代理授权的用户名和密码 (ProxyBasicAuthHandler())
2. 验证 web 客户端的用户名和密码 (HTTPBasicAuthHandler())
ProxyBasicAuthHandler(代理授权验证)
如果我们使用之前的代码来使用私密代理, 会报 HTTP 407 错误, 表示代理没有通过身份验证:
urllib2.HTTPError:HTTP Error 407:Proxy Authentication Required
所以我们需要改写代码, 通过:
HTTPPasswordMgrWithDefaultRealm()
: 来保存私密代理的用户密码
ProxyBasicAuthHandler()
: 来处理代理的身份.
- #-*- coding:utf-8 -*-
- #15.urllib2_proxy2.py
- import urllib2
- import urllib
- # 私密代理授权的账户
- user = "mr_mao_hacker"
- # 私密代理授权的密码
- passwd = "sffqry9r"
- # 私密代理 IP
- proxyserver = "61.23.123.43:16813"
- # 1. 构建一个密码管理对象, 用来保存需要处理的用户名和密码
- passwdmgr = urllib2.HTTPPasswordMgrWithDefaultRealm()
- #2. 添加账户信息, 第一个参数是 realm 是与远程服务器相关的域信息, 一般没人管它都是写 None, 后面三个参数分别是 代理服务器, 用户名, 密码
- passwdmgr.add_password(None, proxyserver, user, passwd)
- #3. 构建一个基础用户名 / 密码验证的 ProxyBasicAuthHandler 处理器对象, 参数是创建的密码管理对象
- # 注意: 这里不再使用普通的 ProxyHandler 累了.
- proxyauth_handler = urllib2.ProxyBasicAuthHandler(passwdmgr)
- #4. 通过 build_opener() 方法使用代理 handler 对象, 创建自定义 opener 对象, 参数包括构建的 proxyauth_handler
- opener = urllib2.build_opener(proxyauth_handler)
- #5.构建 request 请求
- request = urllib2.Request("http://www.baidu.com/")
- #6.使用自定义的 opener 发送请求
- response = opener.open(request)
- #7.打印响应内容
- print(response.read())
HTTPBasicAuthHandler 处理器 (Web 客户端授权验证)
有些 Web 服务器 (包括 HTTP/FTP 等) 访问时, 需要进行用户身份验证, 爬虫直接访问会报 HTTP 401 错误, 表示访问身份未经授权:
urllib2.HTTPError:HTTP Error 401:Unauthorized
如果我们有客户端的用户名和密码, 我们可以通过下面的方法去访问爬取:
- # -*- coding:utf-8 -*-
- import urllib
- import urllib2
- # 用户名
- user = "test"
- # 密码
- passwd = "123456"
#Web 服务器 IP
- webserver = "18.123.123.1:16354"
- #1. 构建一个用户密码管理对象, 用来保存需要处理的用户密码
- passmgr = urllib2.HTTPPasswordMgrWithDefaultRealm()
- #2. 添加账户信息, 第一个参数是 realm 与远程服务器相关的域消息, 一般没人管都是写 None, 后面三个参数分别是服务器, 用户名, 密码
- passmgr.add_password(None, webserver, user, passwd)
- #3. 构建一个 Http 基础用户名 / 密码验证的 HTTPBasicAuthHandler 处理器对象, 参数是创建的密码管理对象
- httpauth_handler = urllib2.HTTPBasicAuthHandler(passmgr)
- #4. 通过 build_opener() 方法使用这些代理 handler 对象, 创建自定义的 opener 对象, 参数是创建的 httpauth_handler
- opener = urllib2.build_opener(httpauth_handler)
- #5. 可以选择通过 install_opener() 方法定义全局 opener
- urllib2.install_opener(opener)
- #6. 构建 request 对象
- request = urllib2.Request("http://www.baidu.com/")
- #7. 定义 opener 为全局 opener 后, 可直接使用 urlopen() 请求
- response = urllib2.urlopen(request)
- #8. 打印回应
- print(response.read())
- Cookie
Cookie 是指某些网站服务器为了辩护用户身份和进行 Session, 而存储在用户浏览器上的文本文件, Cookie 可以保持登陆信息到用户下次与服务器的会话.
Cookie 原理
HTTP 是无状态的面向连接的协议, 为了保持连接状态, 引入了 Cookie 机制, Cookie 是 http 消息头中的一种属性, 包括:
Cookie 名字 (Name)
Cookie 的值 (Value)
Cookie 的过期时间 (Expires/Max-Age)
Cookie 的作用路径 (Path)
Cookie 所在域名 (Domain),
使用 Cookie 进行安全连接 (Secure).
前两个参数是 Cookie 应用的必要条件, 另外, 还保活 Cookie 大小 (size, 不同浏览器对 Cookie 个数及大小限制是有差异的)
Cookie 由变量名和值组成, 根据 Netscape 公司的规定, Cookie 格式如下:
Set-Cookie:NAME=VALUE;Expires=DATE;Path=PATH;Domain=DOMAIN_NAME;SECURE
Cookie 应用
Cookies 在爬虫方面最典型的应用是判断注册用户是否已经登录网站, 用户可能会得到提示, 是否在下一次进入此网站时保留用户信息以便简化登录手续.
- #-*- coding:utf-8 -*-
- #16.urllib2_cookie.py
- # 获取一个有登陆信息的 Cookie 模拟登陆
- import urllib2
- #1. 构建一个已经登陆过的用户的 headers 信息
- headers = {
- "Host":"www.renren.com",
- "Connection":"keep-alive",
- "Upgrade-Insecure-Requests":"1",
- "User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36",
- "Accept":"text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8",
- "Accept-Language":"zh-CN,zh;q=0.8,en;q=0.6",
- # 便于终端阅读, 表示不支持压缩文件
- # Accept-Encoding: gzip, deflate, sdch,
- # 重点: 这个 Cookie 是保存了密码无需重复登录的用户的 Cookie, 这个 Cookie 里记录了用户名, 密码 (通常经过 RAS 加密)
- "Cookie": "anonymid=ixrna3fysufnwv; depovince=GW; _r01_=1; JSESSIONID=abcmaDhEdqIlM7riy5iMv; jebe_key=f6fb270b-d06d-42e6-8b53-e67c3156aa7e|c13c37f53bca9e1e7132d4b58ce00fa3|1484060607478|1|1484060607173; jebecookies=26fb58d1-cbe7-4fc3-a4ad-592233d1b42e|||||; ick_login=1f2b895d-34c7-4a1d-afb7-d84666fad409; _de=BF09EE3A28DED52E6B65F6A4705D973F1383380866D39FF5; p=99e54330ba9f910b02e6b08058f780479; ap=327550029; first_login_flag=1; [email protected]; ln_hurl=http://hdn.xnimg.cn/photos/hdn521/20140529/1055/h_main_9A3Z_e0c300019f6a195a.jpg; t=214ca9a28f70ca6aa0801404dda4f6789; societyguester=214ca9a28f70ca6aa0801404dda4f6789; id=327550029; xnsid=745033c5; ver=7.0; loginfrom=syshome"
- }
- #2. 通过 headers 里的报头信息 (主要是 Cookie 信息), 构建 request 对象
- request = urllib2.Request("http://www.renren.com", headers = hreaders)
- #3. 直接访问人人主页, 服务器会根据 headers 信息 (主要是 Cookie 信息), 判断是否是一个已经登陆的用户, 并返回相应的页面
- response = urllib2.urlopen(request)
- #4. 打印响应内容
- print(response.read())
但是这样做太过复杂, 我们先需要在浏览器登录账户, 并且设置保存密码, 并且通过抓包才能获取这个 Cookie, 那么有更简单方便的方法呢?
cookielib 库 和 HTTPCookieProcessor 处理器
在 Python 处理 Cookie, 一般是通过 cookielib 模块和 urllib2 模块的 HTTPCookieProcessor 处理器一起使用
cookielib 模块: 主要作用是提供用户存储 cookie 的对象
HTTPCoolieProcessor 处理器: 主要作用是处理这些 cookie 对象, 并构建 handler 对象.
cookielib 库
该模块主要的对象有 CookieJar,FileCookieJar,MozillaCookieJar,LWPCookieJar.
CookieJar: 管理 HTTP cookie 值, 存储 HTTP 请求生成的 cookie, 向传出的 HTTP 请求添加 cookie 的对象. 整个 cookie 都存储在内存中, 对 CookieJar 实例进行垃圾回收后 cookie 也将丢失.
FileCookieJar(filename,delayload=None,policy=None): 从 CookieJar 派生而来, 用来创建 FileCookieJar 实例, 检索 cookie 信息并将 cookie 存储到文件中. filename 是存储 cookie 的文件名. delayload 为 True 时支持延迟访问文件, 即只有在需要时才读取文件或在文件中存储数据.
MozillaCookieJar(filename, delayload=None, policy=None): 从 FileCookieJar 派生而来, 创建与 Mozilla 浏览器 cookies.txt 兼容的 FileCookieJar 实例.
LWPCookieJar(filename, delay=None, policy=None): 从 FileCookieJar 派生而来, 创建与 libwww-perl 标准的 Set-Cookie3 文件格式兼容的 FileCookieJar 实例.
其实大多数情况下, 我们只用 CookieJar(), 如果需要和本地文件交互, 就用 MozillaCookieJar() 或 LWPCookieJar()
我们来做几个案例:
获取 Cookie, 并保存到 CookieJar() 对象中
- #-*- coding:utf-8 -*-
- #18.urllib2_cookielibtest1.py
- import cookielib
- import urllib2
- # 构建一个 CookieJar 对象实力来保存 cookie
- cookiejar = cookielib.CookieJar()
- # 使用 HTTPCookieProcessor() 来创建 cookie 处理器对象, 参数为 CookieJar() 对象
- handler = urllib2.HTTPCookieProcessor(cookiejar)
- # 通过 build_opener() 来构建 opener
- opener = urllib2.build_opener(handler)
- # 以 get 方式访问页面, 访问之后会自动保存 cookie 到 cookiejar 中
- opener.open("http://www.baidu.com")
- ### 可以按照标准格式将保存的 cookie 打印出来
- cookieStr = ""
- for item in cookiejar:
- cookieStr = cookieStr + item.name + "=" +item.value+";"
- ## 舍去最后一位的分号
- print(cookieStr[:-1])
我们使用以上方法将 Cookie 保存到 cookiejar 对象中, 然后打印出了 cookie 中的值, 也就是访问百度首页的 Cookie 值.
运行结果如下:
BAIDUID=985AC680AE8947E7281186821669B597:FG=1;BIDUPSID=985AC680AE8947E7281186821669B597;H_PS_PSSID=1462_22533_21082_17001_25083_22157;PSTM=1511226559;BDSVRTM=0;BD_HOME=0
访问网站获得 cookie, 并把获得的 cookie 保存在 cookie 文件中
- #-*- coding:utf-8 -*-
- #19.urllib2_cookielibtest2.py
- import cookielib
- import urllib2
- # 保存 cookie 的本地磁盘文件名
- filename = "cookie.txt"
- # 声明一个 MozillaCookieJar(有 save 实现) 对象实例来保存 cookie, 之后写入文件
- cookiejar = cookielib.MozillaCookieJar(filename)
- # 使用 HTTPCookieProcessor() 创建 cookie 处理器对象, 参数为 cookieJar() 对象
- handler = urllib2.HTTPCookieProcessor(cookiejar)
- # 通过 build_opener() 对象来构建 opener
- opener = build_opener(handler)
- # 创建一个请求, 原理同 urllib2 的 urlopen
- response = opener.open("http://www.baidu.com")
- # 保存 cookie 到本地文件
- cookiejar.save()
从文件中获取 cookies, 做出请求的一部分去访问
- # urllib2_cookielibtest2.py
- import cookielib
- import urllib2
- # 创建 MozillaCookieJar(有 load 实现) 实例对象
- cookiejar = cookielib.MozillaCookieJar()
- # 从文件中读取 cookie 内容到变量
- cookie.load('cookie.txt')
- # 使用 HTTPCookieProcessor() 来创建 cookie 处理器对象, 参数为 CookieJar() 对象
- handler = urllib2.HTTPCookieProcessor(cookiejar)
- # 通过 build_opener() 来构建 opener
- opener = urllib2.build_opener(handler)
- response = opener.open("http://www.baidu.com")
利用 cookielib 和 post 登陆人人网
- import urllib
- import urllib2
- import cookielib
- # 1. 构建一个 CookieJar 对象实例来保存 cookie
- cookie = cookielib.CookieJar()
- # 2. 使用 HTTPCookieProcessor() 来创建 cookie 处理器对象, 参数为 CookieJar() 对象
- cookie_handler = urllib2.HTTPCookieProcessor(cookie)
- # 3. 通过 build_opener() 来构建 opener
- opener = urllib2.build_opener(cookie_handler)
- # 4. addheaders 接受一个列表, 里面每个元素都是一个 headers 信息的元祖, opener 将附带 headers 信息
- opener.addheaders = [("User-Agent", "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36")]
- # 5. 需要登录的账户和密码
- data = {
- "email":"[email protected]", "password":"alaxxxxxime"
- }
- # 6. 通过 urlencode() 转码
- postdata = urllib.urlencode(data)
- # 7. 构建 Request 请求对象, 包含需要发送的用户名和密码
- request = urllib2.Request("http://www.renren.com/PLogin.do", data = postdata)
- # 8. 通过 opener 发送这个请求, 并获取登录后的 Cookie 值,
- opener.open(request)
- # 9. opener 包含用户登录后的 Cookie 值, 可以直接访问那些登录后才可以访问的页面
- response = opener.open("http://www.renren.com/410043129/profile")
- # 10. 打印响应内容
- print response.read()
模拟登陆要注意几点:
登陆一般都会先有一个 HTTP GET, 用于拉取一些信息及获得 Cookie, 然后再 HTTP POST 登陆
HTTP POST 登陆的链接有可能是动态的, 从 GET 返回的信息中获取.
password 有些是明文发送给, 有些是加密后发送. 有些网站甚至采用动态加密的, 同时包括了很多其他数据的加密信息, 只能通过查看 JS 源码获得加密算法, 再去破解加密, 非常困难.
大多数网站的登陆整体流程是类似的, 可能有些细节一些, 所以不能保证其他网站登陆成功.
这个测试案例中, 为了让大家快速理解知识点, 我们使用的人人网登陆接口是人人网改版前的隐藏接口 (嘘...), 登陆比较方便.
当然, 我们也可以直接发送账号密码到登陆界面模拟登陆, 但是当网页采用 JavaScript 动态技术以后, 想封锁基于 HttpClient 的模拟登陆就太容易了, 甚至可以根据你的鼠标活动的的特征准确地判断出是不是真人在操作.
所以, 想做通用的模拟登陆还是选别的技术, 比如用内置浏览器引擎的爬虫 (关键词: Selenium, PyantomJS), 这个我们将在以后会学习到.
来源: http://www.bubuko.com/infodetail-3209190.html