关于热图
在网站分析行业中, 网站热图能够很好的反应用户在网站的操作行为, 具体分析用户的喜好, 对网站进行针对性的优化, 一个热图的例子(来源于 ptengine)
上图中能很清晰的看到用户关注点在那, 我们不关注产品中热图的功能如何, 本篇文章就热图的实现做一下简单的分析和总结.
热图主流的实现方式
一般实现热图显示需要经过如下阶段:
1. 获取网站页面
2. 获取经过处理后的用户数据
3. 绘制热图
本篇主要聚焦于阶段 1 来详细的介绍一下主流的在热图中获取网站页面的实现方式
4. 使用 iframe 直接嵌入用户网站
5. 抓取用户页面保存到本地, 通过 iframe 嵌入本地资源(所谓本地资源这里认为是分析工具这一端)
两种方式各有各的优缺点
首先第一种直接嵌入用户网站, 这个有一定的限制条件, 比如如果用户网站为了防止 iframe 劫持, 不允许 iframe 嵌套(设置 meta X-FRAME-OPTIONS 为 sameorgin 或者直接设置 http header , 甚至直接通过 js 来控制
if(window.top !== window.self){ window.top.location = window.location;}
), 这种情况下就需要客户网站做一部分工作才可以被分析工具的 iframe 加载, 使用起来不一定那么方便, 因为并不是所有的需要检测分析的网站用户都可以管理网站的.
第二种方式, 直接抓取网站页面到本地服务器, 然后浏览的是本机服务器上抓取的页面, 这种情况下页面已经过来了, 我们就可以为所欲为了, 首先我们绕过了 X-FRAME-OPTIONS 为 sameorgin 的问题, 只需要解决 js 控制的问题, 对于抓取的页面来说, 我们可以通过特殊的对应来处理(比如移除对应的 js 控制, 或者添加我们自己的 js); 但是这种方式也有很多的不足: 1, 无法抓取 spa 页面, 无法抓取需要用户登录授权的页面, 无法抓取用户设置了白明白的页面等等.
两种方式都存在 https 和 http 资源由于同源策略引起的另一个问题, https 站无法加载 http 资源, 所以如果为了最好的兼容性, 热图分析工具需要被应用 http 协议, 当然具体可以根据访问的客户网站而具体分站优化.
抓取网站页面如何优化
这里我们针对抓取网站页面遇到的问题基于 puppeteer 做一些优化, 提高抓取成功的概率, 主要优化以下两种页面:
1.spa 页面
spa 页面在当前页算是主流了, 但是它总所周知的是其对搜索引擎的不友好; 通常的页面抓取程序其实就是一个简单的爬虫, 其过程通常都是发起一个 http get 请求到用户网站(应该是用户网站服务器). 这种抓取方式本身就会有问题问题, 首先, 直接请求的是用户服务器, 用户服务器对非浏览器的 agent 应该会有很多限制, 需要绕过处理; 其次, 请求返回的是原始内容, 需要在浏览器中通过 js 渲染的部分无法获取(当然, 在 iframe 嵌入后, js 执行还是会再一定程度上弥补这个问题), 最后如果页面是 spa 页面, 那么此时获取的只是模板, 在热图中显示效果非常不友好.
针对这种情况, 如果基于 puppeteer 来做, 流程就变成了
puppeteer 启动浏览器打开用户网站 -->页面渲染 -->返回渲染后结果, 简单的用伪代码实现如下:
- const puppeteer = require('puppeteer');
- async gethtml = (url) =>{
- const browser = await puppeteer.launch();
- const page = await browser.newPage();
- await page.goto(url);
- return await page.content();
- }
这样我们拿到的内容就是渲染后的内容, 无论页面的渲染方式如何(客户端渲染抑或服务端)
需要登录的页面
对于需要登录页面其实分为多种情况:
需要登录才可以查看页面, 如果没有登录, 则跳转到 login 页面(各种管理系统)
对于这种类型的页面我们需要做的就是模拟登录, 所谓模拟登录就是让浏览器去登录, 这里需要用户提供对应网站的用户名和密码, 然后我们走如下的流程:
访问用户网站 -->用户网站检测到未登录跳转到 login-->puppeteer 控制浏览器自动登录后跳转到真正需要抓取的页面, 可用如下伪代码来说明:
- const puppeteer = require("puppeteer");
- async autoLogin =(url)=>{
- const browser = await puppeteer.launch();
- const page =await browser.newPage();
- await page.goto(url);
- await page.waitForNavigation();
- // 登录
- await page.type('#username',"用户提供的用户名");
- await page.type('#password','用户提供的密码');
- await page.click('#btn_login');
- // 页面登录成功后, 需要保证 redirect 跳转到请求的页面
- await page.waitForNavigation();
- return await page.content();
- }
登录与否都可以查看页面, 只是登录后看到内容会所有不同 (各种电商或者 portal 页面)
这种情况处理会比较简单一些, 可以简单的认为是如下步骤:
通过 puppeteer 启动浏览器打开请求页面 -->点击登录按钮 -->输入用户名和密码登录 -->重新加载页面
基本代码如下图:
- const puppeteer = require("puppeteer");
- async autoLoginV2 =(url)=>{
- const browser = await puppeteer.launch();
- const page =await browser.newPage();
- await page.goto(url);
- await page.click('#btn_show_login');
- // 登录
- await page.type('#username',"用户提供的用户名");
- await page.type('#password','用户提供的密码');
- await page.click('#btn_login');
- // 页面登录成功后, 是否需要 reload 根据实际情况来确定
- await page.reload();
- return await page.content();
- }
总结
明天总结吧, 今天下班了.
补充(还昨天的债): 基于 puppeteer 虽然可以很友好的抓取页面内容, 但是也存在这很多的局限
1. 抓取的内容为渲染后的原始 html, 即资源路径 (CSS,image,javascript) 等都是相对路径, 保存到本地后无法正常显示, 需要特殊处理(js 不需要特殊处理, 甚至可以移除, 因为渲染的结构已经完成)
2. 通过 puppeteer 抓取页面性能会比直接 http get 性能会差一些, 因为多了渲染的过程
3. 同样无法保证页面的完整性, 只是很大的提高了完整的概率, 虽然通过 page 对象提供的各种 wait 方法能够解决这个问题, 但是网站不同, 处理方式就会不同, 无法复用.
来源: http://www.jb51.net/article/139806.htm