对服务进行实时监控, 了解服务当前的运行指标和健康状态, 是微服务体系中不可或缺的环节. Metrics 作为微服务的重要组件, 为服务的监控提供了全面的数据基础. 近日, Dubbo Metrics https://github.com/dubbo/metrics 发布了 2.0.1 版本, 本文将为您探秘 Dubbo Metrics 的起源, 及 7 大改进.
Dubbo Metrics 的起源
Dubbo Metrics(原 Alibaba Metrics)是阿里巴巴集团内部广泛使用的度量埋点基础类库, 有 Java 和 Node.JS 两个版本, 目前开源的是 Java 版本. 内部版本诞生于 2016 年, 经历过近三年的发展和双十一的考验, 已经成为阿里巴巴集团内部微服务监控度量的事实标准, 覆盖了从系统, JVM, 中间件到应用各层的度量, 并且在命名规则, 数据格式, 埋点方式和计算规则等方面, 形成了一套统一的规范.
Dubbo Metrics 的代码是基于 Dropwizard Metrics 衍生而来, 版本号是 3.1.0, 当时决定 fork 到内部进行定制化开发的主要原因有两个.
一是社区的发展非常缓慢, 3.1.0 之后的第 3 年才更新了下一个版本, 我们担心社区无法及时响应业务需求; 另一个更重要的原因是当时的 3.1.0 还不支持多维度的 Tag, 只能基于 a.b.c 这样传统的指标命名方法, 这就意味着 Dropwizard Metrics 只能在单维度进行度量. 然后, 在实际的业务过程中, 很多维度并不能事先确定, 而且在大规模分布式系统下, 数据统计好以后, 需要按照各种业务维度进行聚合, 例如按机房, 分组进行聚合, 当时的 Dropwizard 也无法满足, 种种原因使得我们做了一个决定, 内部 fork 一个分支进行发展.
Dubbo Metrics 做了哪些改进
相对于 Dropwizard Metrics ,Dubbo Metrics 做的改进主要有以下几个方面:
一, 引入基于 Tag 的命名规范
如前文所描述, 多维度 Tag 在动态埋点, 数据聚合等方面相对于传统的 metric 命名方法具有天然的优势, 这里举一个例子, 要统计一个 Dubbo 服务 DemoService 调用次数和 RT, 假设这个服务叫做 DemoService, 那么按照传统的命名方式, 通常会命名为 dubbo.provider.DemoService.qps 和 dubbo.provider.DemoService.rt. 如果只有 1 个服务的话, 这种方法并无太大的问题, 但是如果一个微服务应用同时提供了多个 Dubbo 的 Service, 那么要聚合统计所有 Service 的 QPS 和 RT 就比较困难了. 由于 metric 数据具有天然的时间序列属性, 因此数据非常适合存储到时间序列数据库当中, 要统计所有的 Dubbo 服务的 QPS, 那么就需要查找所有名称为 dubbo.provider.*.qps 的指标, 然后对他们进行求和. 由于涉及到模糊搜索, 这对于绝大部分数据库的实现都是比较费时的. 如果要统计更加详细的 Dubbo 方法级别的 QPS 和 RT, 那么实现上就会更加复杂了.
Metric Key: 用英文点号分隔的字符串, 来表征这个指标的含义
Metric Tag: 定义了这个指标的不同切分维度, 可以是单个, 也可以是多个;
tag key: 用于描述维度的名称;
tag value: 用于描述维度的值;
同时, 考虑到一个公司所有微服务产生的所有指标, 都会统一汇总到同一个平台进行处理, 因此 Metric Key 的命名方式为应当遵循同一套规范, 避免发生命名冲突, 其格式为 appname.category[.subcategory]*.suffix
appname: 应用名;
category: 这个指标在该应用下的分类, 多个单词用'_'连接, 字母采用小写;
subcategory: 这个指标在该应用下的某个分类下的子分类, 多个单词用'_'连接, 字母采用小写;
suffix: 这个关键的后缀描述了这个指标所度量的具体类型, 可以是计数, 速率, 或者是分布;
在上述例子中, 同样的指标可以命名为 dubbo.provider.service.qps{service="DemoService"}, 其中前面部分的名称是固定的, 不会变化, 括号里面的 Tag, 可以动态变化, 甚至增加更多的维度, 例如增加 method 维度 dubbo.provider.service.qps{service="DemoService",method="sayHello"}, 也可以是机器的 IP, 机房信息等. 这样的数据存储是时间序列数据库亲和的, 基于这些数据可以轻松实现任意维度的聚合, 筛选等操作.
P.s. 2017 年 12 月底, Dropwizard Metrics4.0 开始支持 Tag,Dubbo Metrics 中 ag 的实现参考了 Dropwizard.spring-boot 2.0 中提供的 MicroMeter 和 Prometheus 也均已引入了 Tag 的概念.
二, 添加精准统计功能
Dubbo Metrics 的精准统计是和 Dropwizard, 或者其他开源项目埋点统计库实现不太一样的地方. 下面分别通过时间窗口的选择和吞吐率统计方式这两个纬度进行阐述.
在统计吞吐率 (如 QPS) 的时候, Dropwizard 的实现方式是滑动窗口 + 指数加权移动平均, 也就是所谓的 EWMA, 在时间窗口上只提供 1 分钟, 5 分钟, 15 分钟的选择.
固定窗口 vs 滑动窗口
在数据统计的时候, 我们需要事先定义好统计的时间窗口, 通常有两种确立时间窗口的方法, 分别是固定窗口和滑动窗口.
固定时间窗口指的是以绝对时间为参考坐标系, 在一个绝对时间窗口内进行统计, 无论何时访问统计数据, 时间窗口不变; 而滑动窗口则是以当前时间为参考系, 从当前时间往前推一个指定的窗口大小进行统计, 窗口随着时间, 数据的变化而发生变化.
固定窗口的优点在于: 一是窗口不需要移动, 实现相对简单; 二是由于不同的机器都是基于相同的时间窗口, 集群聚合起来比较容易, 只需按照相同的时间窗口聚合即可. 其缺点是: 如果窗口较大, 实时性会受到影响, 无法立即得到当前窗口的统计信息. 例如, 如果窗口为 1 分钟, 则必须等到当前 1 分钟结束, 才能得到这 1 分钟内的统计信息.
滑动窗口的优点在于实时性更好, 在任意时刻, 能都看到当前时刻往前推演一个时间窗口内统计好的信息. 相对而言, 由于不同机器的采集时刻不同, 要把不同机器上的数据聚合到一起, 则需要通过所谓的 Down-Sampling 来实现. 即按照固定时间窗口把窗口内收集到的数据应用到某一个聚合函数上. 举个例子来说, 假设集群有 5 台机器, 按照 15 秒的频率按照平均值进行 Down-Sampling, 若在 00:00~00:15 的时间窗口内, 在 00:01,00:03,00:06,00:09,00:11 各收集到一个指标数据, 则把这 5 个点的加权平均认为是 00:00 这个点的经过 Down- Sampling 之后的平均值.
但在我们的实践过程中, 滑动窗口仍会遇到了以下问题:
很多业务场景都要求精确的时间窗口的数据, 比如在双 11 的时候, 想知道双 11 当天 0 点第 1 秒创建了多少订单, 这种时候 Dropwizard 的滑动窗口很明显就不适用了.
Dropwizard 提供的窗口仅仅是分钟级, 双 11 的场景下需要精确到秒级.
集群数据聚合的问题, 每台机器上的滑动时间窗口可能都不一样, 数据采集的时间也有间隔, 导致聚合的结果并不准确.
为了解决这些问题, Dubbo Metrics 提供了 BucketCounter 度量器, 可以精确统计整分整秒的数据, 时间窗口可以精确到 1 秒. 只要每台机器上的时间是同步的, 那么就能保证集群聚合后的结果是准确的. 同时也支持基于滑动窗口的统计.
瞬时速率(Rate) vs 指数移动加权平均(EWMA)
经过多年的实践, 我们逐渐发现, 用户在观察监控的时候, 首先关注的其实是集群数据, 然后才是单机数据. 然而单机上的吞吐率其实并没有太大意义. 怎么理解呢?
比如有一个微服务, 共有 2 台机器, 某个方法在某一段时间内产生了 5 次调用, 所花的时间分别是机器 1 上的[5,17], 机器 2 上的[6,8,8](假设单位为毫秒). 如果要统计集群范围内的平均 RT, 一种方法可以先统计单机上的平均 RT, 然后统计整体的平均 RT, 按照这种方法, 机器 1 上平均 RT 为 11ms, 机器 2 的平均 RT 为 7.33ms, 两者再次平均后, 得到集群平均 RT 为 9.17ms, 但实际的结果是这样吗?
如果我们把机器 1 和机器 2 上的数据整体拉到一起整体计算的话, 会发现实际的平均 RT 为(5+17+6+8+8)/5=8.8ms, 两者相差很明显. 而且考虑到计算浮点数的精度丢失, 以及集群规模扩大, 这一误差会愈加明显. 因此, 我们得出一个结论: 单机上的吞吐率对于集群吞吐率的计算没有意义, 仅在在单机维度上看才是有意义的.
而 Dropwizard 提供的指数加权移动平均其实也是一种平均, 同时考虑了时间的因素, 认为距离当前时间越近, 则数据的权重越高, 在时间拉的足够长的情况下, 例如 15 分钟, 这种方式是有意义的. 而通过观察发现, 其实在较短的时间窗口内, 例如 1s,5s, 考虑时间维度的权重并没有太大的意义.** 因此在内部改造的过程中, Dubbo Metrics 做了如下改进:
**
提供瞬时速率计算, 反应单机维度的情况, 同时去掉了加权平均, 采用简单平均的方式计算;
为了集群聚合需要, 提供了时间窗口内的总次数和总 RT 的统计, 方便精确计算集群维度的吞吐率;
三, 极致性能优化
在大促场景下, 如何提升统计性能, 对于 Dubbo Metrics 来说是一个重要话题. 在阿里的业务场景下, 某个统计接口的 QPS 可能达到数万, 例如访问 Cache 的场景, 因此这种情况下 metrics 的统计逻辑很可能成为热点, 我们做了一些针对性的优化:
高并发场景下, 数据累加表现最好的就是 java.util.concurrent.atomic.LongAdder, 因此几乎所有的操作最好都会归结到对这个类的操作上.
避免调用 LongAdder#reset
当数据过期之后, 需要对数据进行清理, 之前的实现里面为了重用对象, 使用了 LongAdder#reset 进行清空, 但实测发现 LongAdder#reset 其实是一个相当耗费 CPU 的操作, 因此选择了用内存换 CPU, 当需要清理的时候用一个新的 LongAdder 对象来代替.
去除冗余累加操作
某些度量器的实现里面, 有些统计维度比较多, 需要同时更新多个 LongAdder, 例如 Dropwizard Metrics 的 meter 实现里面计算 1 分 / 5 分 / 15 分移动平均, 每次需要更新 3 个 LongAdder, 但实际上这 3 次更新操作是重复的, 只需要更新一次就行了.
RT 为 0 时避免调用 Add 方法
大多数场景下对 RT 的统计都以毫秒为单位, 有些时候当 RT 计算出来小于 1ms 的时候, 传给 metrics 的 RT 为 0. 当我们发现 JDK 原生的 LongAdder 并没有对 add(0)这个操作做优化, 即使输入为 0, 还是把逻辑都走一遍, 本质上调用的是 sun.misc.Unsafe.UNSAFE.compareAndSwapLong. 如果这个时候, metrics 判断 RT 为 0 的时候不对计数器进行 Add 操作, 那么可以节省一次 Add 操作. 这对于并发度较高的中间件如分布式缓存很有帮助, 在我们内部某个应用实测中发现, 在 30% 的情况下, 访问分布式缓存的 RT 都是 0ms. 通过这个优化可以节约大量无意义的更新操作.
QPS 和 RT 合并统计
只需要对一个 Long 的更新, 即可实现同时对调用次数和时间进行统计, 已经逼近理论上的极限.
经过观测发现, 通常对于中间件的某些指标, 成功率都非常高, 正常情况下都在 100%. 为了统计成功率, 需要统计成功次数和总次数, 这种情况下几乎一样多, 这样造成了一定的浪费, 白白多做了一次加法. 而如果反过来, 只统计失败的次数, 只有当失败的情况才会更新计数器, 这样能大大降低加法操作.
事实上, 如果我们把每一种情况进行正交拆分, 例如成功和失败, 这样的话, 总数可以通过各种情况的求和来实现. 这样能进一步确保一次调用只更新一次计数.
但别忘了, 除了调用次数, 还有方法执行 RT 要统计. 还能再降低吗?
答疑是可以的! 假设 RT 以毫秒为单位进行统计, 我们知道 1 个 Long 有 64 个 bits(实际上 Java 里面的 Long 是有符号的, 所以理论上只有 63 个 bits 可用), 而 metrics 的一个统计周期最多只统计 60s 的数据, 这 64 个 bits 无论怎样用都是用不掉的. 那能不能把这 63 个 bits 拆开来, 同时统计 count 和 RT 呢? 实际上是可以的.
我们把一个 Long 的 63 个 bits 的高 25 位用来表示一个统计周期内的总 count, 低 38 位用于表示总 RT.
- ------------------------------------------
- | 1 bit | 25 bit | 38 bit |
- | signed bit | total count | total rt |
- ------------------------------------------
当一次调用过来来的时候, 假设传过来的 RT 是 n, 那么每次累加的数不是 1, 也不是 n, 而是
1 * 2^38 + n
这么设计主要有一下几个考虑:
count 是每调用一次加一, RT 是每调用一次加 N 的操作, 如果 count 在高位的话, 每次加一, 实际是一个固定的常数, 而如果 rt 放在高位的话, 每次都加的内容不一样, 所以每次都要计算一次;
25 bits 最多可以表示 2^25 = 33554432 个数, 所以 1 分钟以内对于方法调用的统计这种场景来说肯定是不会溢出的;
RT 可能会比较大, 所以低位给了 38bits, 2^38=274877906944 基本也是不可能超的.
如果真的 overflow 了怎么办?
由于前面分析过, 几乎不可能 overflow, 因此这个问题暂时没有解决, 留待后面在解决.
无锁 BucketCounter
在之前的代码中, BucketCounter 需要确保在多线程并发访问下保证只有一个线程对 Bucket 进行更新, 因此使用了一个对象锁, 在最新版本中, 对 BucketCounter 进行了重新实现, 去掉了原来实现中的锁, 仅通过 AtomicReference 和 CAS 进行操作, 本地测试发现性能又提升了 15% 左右.
四, 全面的指标统计
Dubbo Metrics 全面支持了从操作系统, JVM, 中间件, 再到应用层面的各级指标, 并且对统一了各种命名指标, 可以做到开箱即用, 并支持通过配置随时开启和关闭某类指标的收集. 目前支持的指标, 主要包括:
操作系统
支持 Linux/Windows/Mac, 包含 CPU/Load/Disk.NET Traffic/TCP.
JVM
支持 classload, GC 次数和时间, 文件句柄, young/old 区占用, 线程状态, 堆外内存, 编译时间, 部分指标支持自动差值计算.
中间件
Tomcat: 请求数, 失败次数, 处理时间, 发送接收字节数, 线程池活跃线程数等;
Druid: SQL 执行次数, 错误数, 执行时间, 影响行数等;
Nginx: 接受, 活跃连接数, 读, 写请求数, 排队数, 请求 QPS, 平均 RT 等;
更详细的指标可以参见这里, 后续会陆续添加对 Dubbo/Nacos/Sentinel/Fescar 等的支持.
五, REST 支持
Dubbo Metrics 提供了基于 JAX-RS 的 REST 接口暴露, 可以轻松查询内部的各种指标, 既可以独立启动 HTTP Server 提供服务(默认提供了一个基于 Jersey+ sun Http server 的简单实现), 也可以嵌入已有的 HTTP Server 进行暴露指标. 具体的接口可以参考这里:
六, 单机数据落盘
数据如果完全存在内存里面, 可能会出现因为拉取失败, 或者应用本身抖动, 导致数据丢失的可能. 为了解决该问题, metrics 引入了数据落盘的模块, 提供了日志方式和二进制方式两种方式的落盘.
日志方式默认通过 JSON 方式进行输出, 可以通过日志组件进行拉取和聚合, 文件的可读性也比较强, 但是无法查询历史数据;
二进制方式则提供了一种更加紧凑的存储, 同时支持了对历史数据进行查询. 目前内部使用的是这种方式.
七, 易用性和稳定性优化
将埋点的 API 和实现进行拆分, 方便对接不用的实现, 而用户无需关注;
支持注解方式进行埋点;
借鉴了日志框架的设计, 获取度量器更加方便;
增加 Compass/FastCompass, 方便业务进行常用的埋点, 例如统计 qps,rt, 成功率, 错误数等等指标;
Spring-boot-starter, 即将开源, 敬请期待;
支持指标自动清理, 防止长期不用的指标占用内存;
URL 指标收敛, 最大值保护, 防止维度爆炸, 错误统计导致的内存.
如何使用
使用方式很简单, 和日志框架的 Logger 获取方式一致.
- Counter hello = MetricManager.getCounter("test", MetricName.build("test.my.counter"));
- hello.inc();
支持的度量器包括:
- Counter(计数器)
- Meter(吞吐率度量器)
- Histogram(直方分布度量器)
- Gauge(瞬态值度量器)
- Timer(吞吐率和响应时间分布度量器)
- Compass(吞吐率, 响应时间分布, 成功率和错误码度量器)
- FastCompass(一种快速高效统计吞吐率, 平均响应时间, 成功率和错误码的度量器)
- ClusterHistogram(集群分位数度量器)
后续规划
提供 Spring-boot starter
支持 Prometheus,Spring MicroMeter
对接 Dubbo,Dubbo 中的数据统计实现替换为 Dubbo Metrics
在 Dubbo Admin 上展示各种 metrics 数据
对接 Dubbo 生态中的其他组件, 如 Nacos, Sentinel, Fescar 等
参考资料
- Dubbo Metrics @GitHub:
- https://github.com/dubbo/metrics
- Wiki:
- https://github.com/dubbo/metrics/wiki (持续更新)
来源: https://yq.aliyun.com/articles/693569