前言
随着互联网的发展,分布式技术的逐渐成熟,动态水平扩展和自动容灾备份、一键部署等技术方案不断成熟,各大中小互联网企业都在尝试切换将产品的技术方案到分布式的方案,但是分布式的技术方案有一个业内比较难以解决的问题,就是分布式事务的处理,大部分都是将业务尽量限制在同库中,避免跨库事务,或者采用消息队列处理分布式事务,或者采用 DTC 来处理,但是性能都不是太理想。在阅读关于淘宝数据库 OceanBase 的一些文章时受到启发,想到一个不成熟的方案,也可以说是对 OceanBase 的一些思路的总结,在这里写出来给大家分享一下,也欢迎指出其中不合理或可改善的地方。
使用场景
1. 海量数据;
2. 读取压力大而更新操作的场景少;
3. 保障高可用,最终一致性;
架构图
节点功能
1. Application Server 应用服务器,这里只画了一台,实际生产环境中可能是几百上千个 Host 的服务,主要是业务服务;
2.Gate Gate 中保持着数据中心各个功能节点的状态信息,Application Server 从 Gate 中获取到需要操作的主机地址,然后再与数据中心指定的节点进行通信;Gate 中保留的节点信息会记录节点的路由 ip 和端口,节点的状态,另外记录节点的功能特点;Gate 中会开一个守护进程负责与数据中心的各个节点进行通信 (每个节点也有专门负责通信的守护进程),节点的可用状态通过心跳检测(节点是否拓机),节点是否处于 busy 状态由节点自己汇报到 Gate 守护进程,Gate 守护进程再更新配置信息;
3.Update Master 负责数据库的更新操作,该节点并不保存所有数据,只是在需要更新时,将需要的数据从对应的查询库中获取到数据,然后在本机做事务更新,完成后,也是提交到本机。并通过某种机制 (定时器或达到某个阈值),就备份本机数据,并提交到 Data Transfer Station,提交成功后,清空本地数据库。这里的难点是如果知道需要获取哪些数据,我的初步思路是,由应用服务自己告诉该节点,这是最简单的方式;
4.Update Slave: 备用的 Update 服务器,当 Master 拓机时自动成为 Master 代替 UpdateMaster 的工作。守护进程实时监控 Master 状态;
5.Data Transfer Station 数据中转中心,负责收集变更数据,并备份存储,以防需要跟踪或恢复数据等。在 Update Master 提交备份数据后,查找空闲的 Dispatcher,再由 Dispatcher 拉去需要的数据,分发同步到 Query Server 中;
6.Dispatcher 数据分发器,分发器从 Data Transfer Station 获取到数据,并从 Gate 中获取空闲的、未同步过该数据的 Query Server,并将该 Query Server 标记为同步数据中,然后同步数据,同步完成后,将同步日志记录,返回给 Data Transfer Station,接着继续下一个 Query Server 进行同步,直到所有都同步完成。完成后,Data Transfer Station 将该份数据标记为所有节点已同步(同步过程中 Query Server 还是可以提供查询服务);
7.Query Server 查询服务器,负责对外的数据查询。这里有一点还在考虑中,就是是否采用分片,因为数据量大,不分片肯定会导致单机的查询效率下降,分片的话,如采用 Hash 算法计算分片,会增加查询的复杂度,最主要是,数据下发时,需要考虑该更新的数据是在哪个分片上,相对会比较复杂;查询数据请求流程图(未使用 Hash MapReduce,如果使用,则需要在过程中添加 Hash 计算数据所在的节点)
更新数据请求流程图
这里获取更新数据时,应该是全量的,即 Update Master 里的数据 + Query Server 的数据 + Dispatcher 未分发完成的数据;举例来说,假设查询到的某个账户余额 100,000 元,需要做一个转账业务,需要转出 10000 元,并且之前已经做过一次转账 5000 元,但是这笔 5000 元的转账还未同步到查询服务器中,那么该次转账应该是 100,000 元减去 5,000 元,然后再去做转出 10,000 元的操作。最终账户余额应该是 85,000 元。另外,如果查询要做到强一致性,也应该这样做一个差异性数据合并,再转发给业务服务,这样就能做到信息的一致性和实时性。以上仅提供一种思路,实现可结合自己的业务,对该解决方案做一些更改,具体选取技术。具体细节也考虑不是很周全,如有思路上的错误,请多指教。本文原创,如有转载,请注明出处。
来源: https://www.cnblogs.com/flyingaway/p/8143621.html