这里有新鲜出炉的 PHP 面向对象编程,程序狗速度看过来!
PHP(外文名: Hypertext Preprocessor,中文名:"超文本预处理器")是一种通用开源脚本语言。语法吸收了 C 语言、Java 和 Perl 的特点,入门门槛较低,易于学习,使用广泛,主要适用于 web 开发领域。PHP 的文件后缀名为 php。
这篇文章主要介绍了 PHP 小偷程序的设计与实现方法, 结合实例形式分析了 php 基于 html 解析类实现小偷程序抓取图片的相关操作技巧与注意事项, 需要的朋友可以参考下
本文实例讲述了 PHP 小偷程序的设计与实现方法。分享给大家供大家参考,具体如下:
其实自己一直想做一个内涵图片的网站,以前的想法是做一个 CMS,然后自己上传一些图片。。
开始真这么做的,没什么动力。之后就放弃了,后来研究了一个 CURL。反正还是把这个想法实现比较好。
用 PHP 盗图,就好比:穿着袜子穿凉鞋一样。虽然没问题,但看着确实蛋疼。
我先说一下我对 PHP 小偷程序的设计,PHP 不支持多线程,这样就只能分先后顺序来做了
获取到目标网站的 HTML 页面 + 解析 HTML 页面获取到图片存储的连接 + 用二进制方式读取并且保存在本地 + 重命名 == 流程 OK
你现在用两种方式来运行程序:
第一种:用游览器跑程序(多半会卡死,设置超时和内存大小就 OK,你之间比较难等)
另一种:用命令行启动 PHP(不存在 PHP 超时的问题)
- /**
- *HTML解析类
- *author:Summer
- *date:2014-08-22
- **/
- class Analytical {
- public
- function __construct() {
- require_once('Class/SimpleHtmlDom.class.php');
- $this - >_getDir();
- }
- private
- function _getDir() {
- $dir = "../TMP/HTML/Results/1";
- $imgBIG = "../TMP/IMG/JPG/BIG";
- $it = new DirectoryIterator($dir."/");
- foreach($it as $file) {
- //用isDot ()方法分别过滤掉"."和".."目录
- if (!$it - >isDot()) {
- $dirs = $dir."/".$file;
- $tmp = explode(".", $file);
- $html = file_get_html($dirs);
- $ulArr = $html - >find('img');
- foreach($ulArr as $key = >$value) {
- if ($value - >class == "u") {
- $url = http: //www.phperz.com.$value->src;
- $infomation = file_get_contents($url);
- $result = $this - >saveHtml($infomation, $imgBIG, $tmp['0'].".jpg");
- if ($result) {
- echo $file."OK\n";
- }
- }
- }
- }
- }
- }
- private
- function saveHtml($infomation, $filedir, $filename) {
- if (!$this - >mkdirs($filedir)) {
- return 0;
- }
- $sf = $filedir."/".$filename;
- $fp = fopen($sf, "w"); //写方式打开文件
- return fwrite($fp, $infomation); //存入内容
- fclose($fp); //关闭文件
- }
- //创建目录
- private
- function mkdirs($dir) {
- if (!is_dir($dir)) {
- if (!$this - >mkdirs(dirname($dir))) {
- return false;
- }
- if (!mkdir($dir, 0777)) {
- return false;
- }
- }
- return true;
- }
- }
- new Analytical();
上面这个是 HTML 页面获取 IMG 的连接地址的过程。
用到了两个比较重要的东西:
1.PHP 的 DOM 解析扩展 simplehtmldom
2.PHP 的目录迭代器
理解这两个东西了。这个分析类就没难点了。
在说说如果获取需要解析的页面呢?
其实跟上面的原理的是一样的。主要获取页面的 URL,然后通过 CURL 去读取页面,返回一个 HTML 字符串,
再通过保存函数包 HTML 页面保存到本地。
我这里是因为要采集页面里面的图片(为了防止别人防盗链),所以设计的比较复杂。
而且为什么要分开,是因为 simplehtmldom 对象是很庞大的,而且拆开进行这样对流程更加清楚。
肯定有人会说,那为什么不用正则去匹配就跳过了 HTML 保存到本地的环节了,BINGO!我只能懒得写正则而已。
希望本文所述对大家 PHP 程序设计有所帮助。
来源: http://www.phperz.com/article/17/0803/341986.html