这里有新鲜出炉的 Python3 Cookbook 中文版,程序狗速度看过来!
Python 是一种面向对象、解释型计算机程序设计语言,由 Guido van Rossum 于 1989 年底发明,第一个公开发行版发行于 1991 年。Python 语法简洁而清晰,具有丰富和强大的类库。它常被昵称为胶水语言,它能够把用其他语言制作的各种模块(尤其是 C/C++)很轻松地联结在一起。
下面小编就为大家带来一篇 python 爬虫_自动获取 seebug 的 poc 实例。小编觉得挺不错的,现在就分享给大家,也给大家做个参考。一起跟随小编过来看看吧
简单的写了一个爬取 www.seebug.org 上 poc 的小玩意儿~
首先我们进行一定的抓包分析
我们遇到的第一个问题就是 seebug 需要登录才能进行下载,这个很好处理,只需要抓取返回值 200 的页面,将我们的 headers 信息复制下来就行了
(这里我就不放上我的 headers 信息了,不过 headers 里需要修改和注意的内容会在下文讲清楚)
- headers = {
- 'Host': ******,
- 'Connection': 'close',
- 'Accept': ******,
- 'User-Agent': ******,
- 'Referer': 'https://www.seebug.org/vuldb/ssvid-',
- 'Accept-Language': 'zh-CN,zh;q=0.8',
- 'Cookie': ***********
- }
由上所知,我们的中点就是 referer 这一项,是我们后面要进行修改的
那么怎么去修改这个呢?
我先进行点击下载链接抓包发现,seebug 的 poc 下载链接特别的整齐:
'https://www.seebug.org/vuldb/downloadPoc/xxxxx',
后面只需要加上一个五位数就行,而且五位数是连号的哦!
这就一目了然,我更改了五位数再次进行请求时发现,并没有返回美丽的 200 状态码,瞄了一眼 header,发现了 referer 这一项:
'Referer':'https://www.seebug.org/vuldb/ssvid-xxxxx'
也就是说 referer 这一项的五位数字也要随之变化,这样我们的 get 请求头部就完成了
接下来是线程的问题
使用了 queue 和 threading 进行多线程处理,发现我们不能图快,不然会被反爬虫发现
于是导入 time 增加 time.sleep(1),能有一秒的休眠就行了,线程数给了 2 个(这样看来好像线程的意义并不大,不过也就这么写啦)
- # coding=utf-8
- import requests
- import threading
- import Queueimport time
- headers = {
- ******
- }
- url_download = 'https://www.seebug.org/vuldb/downloadPoc/'
- class SeeBugPoc(threading.Thread):
- def __init__(self,queue):
- threading.Thread.__init__(self)
- self._queue = queue
- def run(self):
- while not self._queue.empty():
- url_download = self._queue.get_nowait()
- self.download_file(url_download)
- def download_file(self,url_download):
- r = requests.get(url = url_download,headers = headers)
- print r.status_code
- name = url_download.split('/')[-1]
- print name
- if r.status_code == 200:
- f = open('E:/poc/'+name+'.txt','w')
- f.write(r.content)
- f.close()
- print 'it ok!'
- else:
- print 'what fuck !'
- time.sleep(1)
- '''
- def get_html(self,url):
- r = requests.get(url = url,headers = headers)
- print r.status_code
- print time.time()
- '''
- def main():
- queue = Queue.Queue()
- for i in range(93000,93236):
- headers['Referer'] = 'https://www.seebug.org/vuldb/ssvid-'+str(i)
- queue.put('https://www.seebug.org/vuldb/downloadPoc/'+str(i))
- #queue用来存放设计好的url,将他们放入一个队列中,以便后面取用
- threads = []
- thread_count = 2
- for i in range(thread_count):
- threads.append(SeeBugPoc(queue))
- for i in threads:
- i.start()
- for i in threads:
- i.join()
- if __name__ == '__main__':
- main()
代码如上
控制下载的 range() 中的两个五位数,大家只要去 seebug 库中找一找想要扫描的库的开头和结尾编码的五位数就行了(也就是他们的编号)
关于返回的状态码,如果项目不提供 poc 下载、poc 下载不存在、poc 需要兑换币才能下载,就不能够返回正常的 200 啦(非正常:404/403/521 等)
当然,如果一直出现 521,可以考虑刷新网页重新获取 header 并修改代码
最后进行一个状态码的判断,并且将 200 的文件写出来就好了
(
表示惭愧感觉自己写的很简单
如果大家发现错误或者有疑惑可以留言讨论哦
)
以上这篇 python 爬虫_自动获取 seebug 的 poc 实例就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持 PHPERZ。
来源: http://www.phperz.com/article/17/0825/344575.html