为了账号安全,请及时绑定邮箱和手机立即绑定

使用多数据中心部署来应对Kafka灾难恢复(一)

标签:
大数据

译者注:
这篇文章翻译自 https://www.confluent.io/blog/disaster-recovery-multi-datacenter-apache-kafka-deployments 中提供的白皮书。尽管它其中推荐使用的都是Confluent Platform提供的工具,但其对相关问题处理的思路和想法我们完全可以借用,还是据有一定的参考价值。

  1. 简介

  2. 设计
    2.1 单数据中心设计
    2.3 多数据中心设计
    2.4 数据和Metadata的复制
    2.5 MirrorMaker
    2.6 中心化的Schema管理

  3. 关键特性
    3.1 避免消息的循环复制
    3.2 保留时间戳
    3.3 Consumer offsets的转换
    3.3.1 故障转移后从什么位置开始消费
    3.3.2 转换后的offset的准确度


使用多数据中心部署来应对灾难恢复

简介

数据中心宕机和数据丢失能导致企业损失很多收入或者完全停摆。为了将由于事故导致的宕机和数据丢失带来的损失最小化,企业需要制定业务可持续性计划和灾难恢复策略。

灾难恢复计划经常需要在多个数据中心部署Apache Kafka, 且这些数据中心在地理位置上是分散的。如果灾难来袭,比如说致命的硬件故障,软件故障,电源掉电,拒绝式服务攻击和其他任何可能的事件,导致一个中心数据完成无法工作,Kafka应该继续不间断地运行在另一个数据中心直至服务恢复。

这份白皮书提供了一套基于Confluent Platform平台能力和Apache Kafka主要发行版本所作出的灾难恢复方案的概要。Confluent Platform 提供了下列构建模块:

  • 多数据中心设计

  • 中心化的schema管理

  • 避免消息被循环复制的策略

  • 自动转换consumer offset

这份白皮书将使用上述构建模块来介绍如何配置和启动基于多数据中心的Kafka集群部署,并且告诉你如果一个中心数据不可用将要作什么,如果这个中心数据又恢复了将如何作复原操作。

你可能正在考虑主-从方案(数据在kafka集群间单向复制),双主方案(数据在kafka集群间双向复制),客户端可以仅从本地集群也可以从本地和远端两个集群读取数据,服务发现机制允许作自动故障转移和基于不同地理位置提供服务等。你的架构将非常依赖于你的商业需求,但是你可以使用这份白皮书里的构建模块来增强你的灾难恢复计划。

设计

单一数据中心

首先,让我们一起看下在单数据中心部署的Kafka集群是如何提供消息的持久化的。下面的图显示了单数据中心的架构:


webp

kafka-single.png

在单数据中心情况下,Kafka集群内部的数据复制是实现消息持久化的基本方法。生产者写入数据到集群,然后消费者从partition的leader读取数据。数据从主节点同步复制到从节点以确保消息在不同的broker上有多份拷贝。Kafka生产者能够通过设置Ack这个写入配置参数来控制写入一致性的级别。

生产者设置Ack=All, 将为数据的复制提供了最强有效的保证,它确保在leader broker给生产者发送response前,集群里其他的作为复本的broker都Ack了接收到的数据。如果leader broker故障,其余的follower broker将重新选举出主,此时这个Kafka集群将恢复并且客户端将能够通过新的leader继续读取消息。在 Kafka 0.11版本中,引入了 KIP-101 这个改进,它加强了集群内部的数据复制协议,解决了之前存在的一些问题,提供了容错能力。

另外,客户端可以通过任何的broker集合连接到Kafka集群,这个用于连接的broker集群叫作bootstrap brokers,因为集群内任一台broker上都缓存了整个集群完整的meta data信息,所以客户端连接到任何一台,都可以收取到所有的meta data。如果客户端使用某一台具体的broker连接到集群,但这台broker正好发生故障,那客户端依然可以使用这组bootstrap brokers中的其他broker连接到该集群。

对于Zookeeper, 我们建议至少部署3个节点来维护在有节点发生故障时的高可用性。

最后,我们还需一个Confluent Schema Registry , 它用于保存客户端的所有schemas的历史版本,可以运行多个实例。其中一个Schema Registry实例被选举为主,负责注册新的schemas, 其余的作为从节点。从节点实例可以处理读请求并且将写请求转发到主节点。如果主节点有故障发生,则从节点重新选举出新的主节点,看起来它可以用一个Zookeeper或etcd集群来实现都没有问题(译者添加)。

上面这些合在一起,为单数据中心设计方案提供了在broker故障的情况下的强大保护。更多的如何配置和监控kafka集群消息持久化和高可用的信息,可详见Optimizing Your Apache Kafka Deployment 白皮书。

多数据中心

在多数据中心的设计中,有多个或更多的数据中心中部署有Kafka集群。虽然多数据中心Kafka集群的方式有多种,但我们在这份白皮书里只关注于两个数据中心的灾难恢复。

考虑两个Kafka集群,每一个都部署在地理位置独立的不同的数据中心中。它们中的一个或两个可以部署在Confluent Cloud上或者是部分桥接到cloud。每个数据中心都有自已的一套组件:

  • Kafka 集群, 在本地数据中心中的所有broker构成一个集群,完全不依赖远端数据中心中的broker;

  • Zookeeper集群仅服务于本地的集群;

  • 客户端仅连接到本地集群。


    webp

    kafka-multicenter.png

在多数据中心设计中,其目的是为了跨区域同步数据。Confluent Replicator是Confluent Platform的高级功能,是这种设计的关键所在。Replicator从其中的一个集群中读取数据,然后将消息完整地写入到另一个集群,并且提供了一个跨数据中心复制的中心配置。新的Topic可以自动被感知并复制到目标集群。如果吞吐量增加,这个Replicator将自动扩容以适应这个增加的负载。

这个Replicator可以应用在多种不同的用户场景,这里我们关注它在两个Kafka集群作灾难恢复时的使用。如果一个数据中心发生部分或彻底的灾难,那么应用程序将能够故障转移到另一个数据中心。

在下面的主-从设计中,Replicator运行在一侧(通过应该是运行在目标集群一侧),从主集群DC-1拷贝数据和配置到从集群DC-2。


webp

kafka-.png

生产者只写数据到主集群。依赖于整体的架构,消费者仅从主集群来读取数据,而从集群仅仅是作为灾难恢复用。当然,消费者同样也可以从两个集群都读取数据,用于创建基于本地地理位置的本地缓存。在稳定状态下,当两个数据中心正常运行时,DC-1是主集群,因此所有生产者只写入数据到DC-1。这是一种有效的策略,但对从集群的资源利用不够高效。如果灾难事件发生导致DC-1故障,企业需要确定客户端应用程序将如何响应。客户端应用程序可以故障转移到DC-2。当DC-1恢复后,作为故障恢复过程的一部分,DC-2中所有的最终状态信息也要复制回之前的主集群。

在下面的主-主(多主)设计中,部署两个Replicator, 一个将数据和配置从DC-1复制到DC-2, 另一个从DC-2复制到DC-1。


webp

kafka-multi-replicator.png

生产者可以写数据到两个集群,DC-1的生产者写数据到本地DC-1的topic中,DC-2的生产者写数据到本地DC-2的topic中。DC-1的消费者可以消费本地DC-1的生产者生产的数据,也可以消费从DC-2中同步过来的数据,反之亦然。消费者能够通过具体的topic名字和统配符来订阅多个topic。因此,两个数据中心的资源都得到了很多的利用。如果灾难事件导致DC-1故障,已经存在的DC-2的生产者和消费者将继续它们的操作,它本质上不受影响。当DC-1恢复后,作为故障恢复过程的一部分,客户端应用程序可以直接回到之前的主集群。

数据和Metadata的复制

单Kafka集群内部的数据复制是同步进行的,这意味着在数据被复制到本地的其他broker后,生产者才会收到ack。与此同时,Replicator在两个数据中心之间异步复制数据。这意味着生产数据到本地集群的客户端应用不会等待数据复制到远端集群就可以收到ack。这个异步复制使得对消费者消费到有效数据的延迟最小化。异步复制的另一个好处是你不用在两个不同集群之间创建相互依赖。即使两个集群之间的连接失败或者你需要维护远端数据中心,生产者发送数据到本地集群仍将是成功的。

Replicator复制的不仅仅是topic的数据还有metadata。比如topic metadata或者partition个数在原集群发生变化,Replicator同样可以将这种变化同步到目标集群。为了维护kafka topic的配置选项在多个集群一致,topic metadata必须在原始集群和目标集群保持相同。这个是由Replicator自动完成的。在topic准备阶段,它创建一个初始的topic配置,然后它在两个集群间现步这个topic的metadata。比如,如果你在DC-1中更新了一个topic的配置属性,Replicator将相应的配置更新到DC-2上对应的topic上。

MirrorMaker

你可以也听说过Kafka提供了一个单独的工具叫“MirrorMaker“,它可以用来在两个Kafka集群间复制数据。但是,MirrorMaker有很多的不足之处,使它在构建和维护多数据中心部署时面临很大的挑战,包括以下几点:

  • 复制时为了过滤topic,需要繁琐的配置

  • 在目标集群创建的topic使用的配置可能和原始集群不匹配

  • 缺少内建的重新配置topic名字来避免循环复制数据的能力

  • 没有能力根据kafka流量增加来自动扩容

  • 不能监控端到端的跨集群延迟

Confluent Replicator解决了上面这些问题,提供了可靠的数据复制功能。Replicator提供了更好的跨多个数据中心数据和metadata同步的功能。它整合了Kafka Connect,提供了优秀的可用性和伸缩性。

另外,Confluent Control Center还可以管理和监控Replicator的性能,吞吐量和延迟。为了监控Replicator的性能,你需要配置 Confluent Monitoring interceptors

webp

kafka-monitor.png


中心化的Schema管理

译者注:
我们先简单过一个Schema是什么,它其实就是描述了消息的格式,比如一个消息体有什么字段,是什么类型等,在生产者和消费者之前达到一种消息格式的协议。Schema管理简单说就是有个中心服务,来管理全局的这些Schema,新的schema注册到Schema管理服务后,获取到一个唯一schema id,然后在生产的消息中带上这个schema id, 消息者获取到消息后,先解析出schema id,然后去schema管理服务上再获取到对就在的schema, 用这个schema到消息的具体内容解析出来。这个Schema管理服务通常是CP系统,分布式部署,数据强一致。Confluent提供了这样的一个服务,详情请见 Schema Registry

由于存储在Kafka的消息需要跨所有集群生产和消费,因此Schemas需要全局有效。Schema Registry提供了中心化的schema管理并且它被设计成分布式的。多个Schema Registry实例跨数据中心部署,提供了弹性和高可用性,并且任何的一个实例都可以将schemas和schema id发送到Kafka客户端。为了写kafka topic而用到的所有schema信息,都作为log提供到database(类似于zookeeper, etcd等)。在单主架构中,仅仅主Schema Registry实例可以写针对kafka topic的新的注册信息,从schema registry将新的注册请求转发给主。

在多数据中心的设计中,有多个数据中心的所有Schema Registry实例都应满足下列操作的要求:

  • 访问相同的schema id
    由于DC-1中生产的消息可能需要在DC-2中被消费,因此Schema信息在多个数据中心中必须都是有效的。DC-1中的一个生产者注册新的schema到Schema Registry并且插入schema id到消息中,然后DC-2或任意一个数据中心中的一个消费者都可以使用这个Schema id从shema registry处查询到对就应的schema信息。

  • 协调主schema registry的选举
    不论你的多数据中心是双主还是方从模式,都需要选定一个kafka集群威群作为主Schema Registry。这个集群将从Schema Registry所有实例中选出主。在Confluent Platform 4.0版本之后,kafka Group协议和Zookeeper都可以协调这个选主过程。如果连接到Confluent云或者是无法访问Zookeeper, 则可以使用kafka Group协议。

webp

ele.png

Replicator也负现将保存有Schema 信息的kafka topic数据从主cluster同步到从cluster。多个数据中心中的所有从Schema Registry都直接订阅当前集群中的schema topic。需要时刻确保主Kafka集群和备选的Schema Registry实例在所有数据中心中都是合局可访问的。

关键特性

避免消息的循环复制

在双主的情况下,需要在跨集群双向复制数据,那避免消息的循环复制就变得很重要。没人愿意看到topic的消息从DC-1复制到DC-2, 又从DC-2又复制回DC-1。

Conflument Replicator 5.0.1版本引入了新的特性,可以在不强制使用唯一topic名字的前提下,避名消息的循环复制。如果这个特性被开启,Replicator将针对每个消息都跟踪消息的来源信息,包括集群和原始topic。Replicator使用Kafka header这个新特性来跟踪来源信信息。Kafka header是在kafka 0.11及以上版本中支持,相应的broker的配置参数为log.message.format.version, 在kafka 2.0版本它是默认被设置的。

为了开启Replicator这个特性,需要配置provenance.header.enable=true。Replicator将放置跟踪信息到被复制后的消息的header中。这个跟踪信息包括下列部分:

  • 消息被首先生产的初始集群的ID

  • 消息被首先生产的初始topic名字

  • Replicator首次复制该消息时的时间戳

默认情况下,如果目标集群topic名字和来源信息中的topic名字相匹配,并且目标集群ID和在这个来源信息header中的集群ID匹配时,Replicator将不复制消息。考虑下面这张图,在原始集群和目标集群中使用完全相同名字的topic,消息m1由初始的DC-1产生,消息m2由初始的DC-2产生。


webp

d12png.png

当Repicator将消息从DC-1中复制到DC-2时:

  • m1 将被复制到DC-2, 因为在DC-1的m1消息的消息header中没有任何的追踪信息

  • DC-1中的m2不会被再次复制回DC-2, 因为DC-1中的m2消息的消息header中已经标识出来它初始来自DC-2

通常情况下,当Replicator能够自动避免循环复制消息时,不同数据中心的应用程序可以使用完全相同的topic名字来访问topic。

客户端应用程序的设计需要考虑跨数据中心有相同topic名字时的影响。生产都不会等待消息被复制到远端集群的ACK,并且当消息在本地集群被提交后,Replicator会异步在两个数据中心间复制消息。如果每个数据中心的生产者都使用相同的topic名字,这在全局来说是无序的(即使只有一个集群,也是无序的)。如果在每个数据中心都使用相同的group id来消费相同的topic,稳定情况下每个数据中心的消息都将被重新处理一次。

保留时间戳

在Kafka集群内部,Kafka cosumer会跟踪它们已消费的消息。为了在停止消费后的某一刻继续消费,Kafka使用offset来标识下一条将要被读取的消息。这个消费者的offset保存在一个叫__consumer_offsets的特定的kafka topic里。

在多数据中心的情况下,如果某个数据中心发生灾难,消费者将停止从这个集群消费数据,可能需要消费另一个集群的数据。理想情况是新的消费者从旧的消费者停止消费的位置开始继续消费。你可以会尝试使用Replicator来复制consumer offsets这个topic。但是相同的offset在两个不同的数据中心集群中指向的message可能不是同一条,在这种情部下复制consumer offsets这个topic就是不能正常工作的。这个场景包括下面各种情况:

  • 在消息被同步前,由于retention polict或者是compaction策略,原集群中的一些数据可能被清理。这通常发生在消息已经写入原始集群很长时间后Replicator才启动。在这种情况下,offsets将不再匹配。

  • 在从原始集群向目标集群复制数据时,可能会发生短暂的错误,这将导致Replicator重送数据,就可能导致数据重复。可能有重复消息的后果就是相同的offset可能不再对应相同的消息。

  • 数据topic的同步可能会落后consumer offset这个topic的同步。因为consumer offset topic和data topic的同步是各自独立的,所以可能会遇到这个落后的问题。当consumer在新的集群重新启动时,可能它尝试读取的offset对应的消息还没有被复制过来。

基于上面这些可能的场景,应用程序不能使用consumer offsets来作为两个集群中相同消息的标识。实际上这个__consumer_offsetstopic不会在也两个数据中心间被复制。当复制Data时,Replicator会保留消息中的时间戳。Kafka新版本在Message中增加了时间戳支持,并且增加了新的基于时间戳的索引,保存了时间戳到offset的关联。

下面这张图显示了m1这个消息被从DC-1复制到了DC-2,这个message在两个集群中的offset是不同的,但保留了相同的时间戳t1

webp

time.png


当Kafka broker在message中保存了时间戳后,consumer就重置message的消费位置到之前的某个时间点。

Consumer Offset的转换

故障转移后从什么位置恢复消费

如果发生灾难,consumers必须重启已连接到新的数据中心,并且它必须从灾难发生之前在原有数据中心消费到的topic消息的位置开始继续消息。


webp

12.png

故障转移到另一个数据中心的consumers如何确定从这个topic的什么位置开始消费呢?可以从每个topic的最旧或最新位置开始消费。

考虑下面的情景,一个生产者写了10000条消息到DC-1中的一个topoic。Replicator复制这些消息到DC-2中。由于存在复制落后的可能,当灾难恢复时,它只复制了9998条数据。在灾难发生前,原有的consumers在DC-1中只读取了8000条数据,还剩下2000条没有读。故障转移到DC-2后,这个consumer看到这个topic有9998条消息,还有1998条没有读。那么它将从什么位置开始读取呢?


webp

13.png

默认情况下,当一个consumer在DC-2创建后,这个配置参数auto.offset.reset将被设置为latestearliest,如果设置为latest, 将从最新位置开始消费,将丢失掉1998条数据;如果设置成earliest, 会重复消费8000条数据。

有些应用可以接受从最新或最旧开始消费。但是,有些应用这两种方式都不能接受,它们期望的行为是从第8000条消息开始消费且仅消费1998条数据,就像下面这张图显示的。


webp

14.png

为了满足这个需求,consumer需要在新集群中将conusmer offset重置到某些有意义的点。就像在保留时间戳这一节讨论的,consumers不能完全依靠offsets来重置消费的offset,因为这个offset在两个集群之间标识的消息可能是不同的。Offsets在两个数据中心间可能不同,但时间戳是一致的。在消息中保留的时间戳,在两个集群间有相同的意义,并且可以将这个时间戳对应的消息的offset作为开始消费的位置。

Confluent Platform 5.0版本引入了一个新的特性,可以使用时间戳自动转换offsets,因此consumers能够在故障转移到新的数据中心后,从原始集群中记录的消费位置开始继续消费。为了使用这个能务,需要使用一个叫Consumer Timestamps Interceptor的拦截器来配置java消费程序,它会保存已消费的消息对应的metadata信息,包括:

  • Consumer group ID

  • Topic名字

  • Partiton

  • 已提交的offset

  • 已提交的offset对应的时间戳

这个Consumer的时间戳信息是保存在原始kafka集群中一个叫__consumer_timestamps的topic里。Replicator不会复制这个topic,因为它只有本地的集群中有意义。

Confluent Replicator将数据从一个数据中心复制到另一个的同时,还并行地完成下面的工作:

  • 从原始集群的__consumer_timestampstopic中读取consumer offset和对应的时间戳信息来了解当前这个consumer group的消费进度

  • 转换这个原始集群中的提交的offset到目标集群中对应的offset

  • 只要没有这个group中的consumer边接到这个目标集群,就将转换得到的offset写入到目标集__consuer_offsetstopic中

当Replicator将转换后的offset写入到目标集群的__consumer_offsetstopic时,它需要知道每个offset对应的topic名字,这个topic名字按照topic.rename.format的配置被重命名。

如果已经有相应的consumer group中的consumer连接到了目标集群,Replicator将不会写入offset到这个__consumer_offsetstopic。不论是哪些方案,当一个消费者故障转移到备份集群时,它将使用正常的机制查看并找到先前提交的offsets。

转换后的Offset的准确度

使用上一节中介绍的Consumer时间戳拦截器,故障转移到新数据中心后的conusmer group就可以从故障的集群中已提交的offset的位置开始消费了。消费都将不会少消费任何的消息。但是依赖于影响转换offset的若干因素,消费者可能会重复消费一些消息。

影响转换offset的若干因素有:

  • 复制的落后情况

  • offset的提交周期

  • 有相同时间戳的记录的数量



作者:扫帚的影子
链接:https://www.jianshu.com/p/3a8565e57b40


点击查看更多内容
TA 点赞

若觉得本文不错,就分享一下吧!

评论

作者其他优质文章

正在加载中
移动开发工程师
手记
粉丝
46
获赞与收藏
144

关注作者,订阅最新文章

阅读免费教程

  • 推荐
  • 评论
  • 收藏
  • 共同学习,写下你的评论
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦
今天注册有机会得

100积分直接送

付费专栏免费学

大额优惠券免费领

立即参与 放弃机会
意见反馈 帮助中心 APP下载
官方微信

举报

0/150
提交
取消