1. 引言
消息队列(MQ)中间件已经普及很多年了,在互联网应用中,通常稍大一些的应用,我们都可以见到MQ的身影。当前市面上有很多中消息中间件,包括但不限于RabbitMQ、RocketMQ、ActiveMQ、Kafka(流处理中间件) 等。很多开发人员已经熟练的掌握了一个或者多个消息中间件的使用。但是仍然有一些小伙伴们对消息中间件不是特别熟悉,因为各种原因不能深入的去学习了解个中原理和细节,导致使用的时候可能出现这样那样的问题。在这里,我们就针对消息队列中间件使用中的典型问题作一番分析(包括顺序消息、可靠性保证、消息幂等、延时消息等),并提供一些解决方案。
2. 消息中间件应用背景
2.1 消息中间件基本思想
我们在单个系统中,一些业务处理可以顺序依次的进行。而涉及到跨系统(有时候系统内部亦然)的时候,会产生比较复杂数据交互(也可以理解为消息传递)的需求,这些数据的交互传递方式,可以是同步也可以是异步的。在异步传递数据的情况下,往往需要一个载体,来临时存储与分发消息。在此基础上,专门针对消息接收、存储、转发而设计与开发出来的专业应用程序,都可以理解为消息队列中间件。
引申一下:如果我们自己简单的使用一张数据库表,来记录数据,然后接受数据存储在数据表,通过定时任务再将数据表的数据分发出去,那么我们已经实现了一个最简单的消息系统(这就是本地消息表)。
我们可以认为消息中间件的基本思想就是 利用高效可靠的消息传递机制进行异步的数据传输。在这个基本思想的指导下,不同的消息中间,因为其侧重场景目的不同,在功能、性能、整体设计理念上又各有差别。
消息队列(MQ)本身是实现了生产者到消费者的单向通信模型,RabbitMQ、RocketMQ、Kafka这些常用的MQ都是指实现了这个模型的消息中间件。目前最常用的几个消息中间件主要有,RabbitMQ、RocketMQ、Kafka(分布式流处理平台)、Pulsar(分布式消息流平台)。这里我将两个流处理平台纳入其中了, 更早的一些其他消息中间件已经慢慢淡出视野。业务选型的时候我们遵循两个主要的原则:最大熟悉程度原则(便于运维、使用可靠)、业务契合原则(中间件性能可以支撑业务体量、满足业务功能需求)。
这几个常用的消息中间件选型对比,很容易找到,这里就不详细描述了。大概说一下:Pulsar目前用的不如 RabbitMQ、RocketMQ、Kafka多。RabbitMQ主要偏重是高可靠消息,RocketMQ性能和功能并重,Kafka主要是在大数据处理中应用比较多(Pulsar比较类似)。
2.2 引入消息中间件的意义
我们先简单举例介绍一下异步、解藕、削峰的意义与价值(参考下面这张流程图):
对于一个用户注册接口,假设有2个业务点,分别是注册、发放新人福利,各需要50ms去处理逻辑。如果我们将这两个业务流程耦合在一个接口,那么总计需要100ms处理完成。但是该流程中,用户注册时候,可以不用关心自己的福利是否立即发放,只要尽快注册成功返回数据即可,后续新人福利这一部分业务可以在主流程之外处理。我们如果将其剥离出来,接口主流程中只处理登陆逻辑,并通过MQ推送一条消息,通过异步方式处理后续的发放新人福利逻辑,这样即可保证注册接口50ms左右即能获取结果。而发放新人福利的业务,则通过异步任务慢慢处理。 通过拆分业务点,我们已经做到解耦,注册的附属业务中增加或减少功能点都不会影响主流程。另外如果一个业务主流程在某个点请求并发比较高,正好通过异步方式,可以将压力分散到更长的时间段中去,达到减轻固定时间段处理压力的目的,这就是流量削峰。
**另外,单线程模型的语言,通常对消息中间件的需求更强烈。多线程模型的语言,或者协程型语言,虽然可以通过自身的多线程(或协程)机制,来实现业务内部的异步处理,但是考虑到持久化问题以及管理难度,还是成熟的中间件更适合用来做异步数据通信,中间件还能实现分布式系统之间的数据异步通信。
2.3 消息中间件的应用场景
消息中间件的应用场景主要有:
- 异步通信:可以用于业务系统内部的异步通信,也可以用于分布式系统信息交互
- 系统解耦:将不同性质的业务进行隔离切分,提升性能,主附流程分层,按照重要性进行隔离,减少异常影响
- 流量削峰:间歇性突刺流量分散处理,减少系统压力,提升系统可用性
- 分布式事务一致性:RocketMQ提供的事务消息功能可以处理分布式事务一致性(如电商订单场景)。当然,也可以使用分布式事务中间件。
- 消息顺序收发:这是最基础的功能,先进先出,消息队列必备
- 延时消息: 延迟触发的业务场景,如下单后延迟取消未支付订单等
- 大数据处理:日志处理,kafka
- 分布式缓存同步:消费MySQLbinlog日志进行缓存同步,或者业务变动直接推送到MQ消费
所以,如果你的业务中有以上列举的场景,或者类似的功能、性能需求,那么快快引入 消息中间件来提升你的业务性能吧。
3. 引入消息中间件带来的一系列问题
虽然消息中间件引入有以上那么多好处,但是使用的时候依然会存在很多问题。例如:
- 引入消息中间件增加了系统复杂度,怎么使用维护
- 消息发送失败怎么办(消息丢失)
- 为了确保能发成功,消息重复发送了怎么办(消息重复)
- 消息在中间件流转出现异常怎么处理
- 消息消费时候,如果消费流程失败了怎么处理,还能不能重新从中间件获取到这条消息
- 消费失败如果还能获取,那会不会出现失败情况下,一直重复消费同一条消息,从而流程卡死
- 消费失败如果不能再获取,那么我们该怎么确保这条消息能再次被处理
- 重复消费到相同的消息流程怎么处理,会不会导致业务异常
- 那么我们该怎么确保消费流程只成功执行一次
- 对于那些有顺序的消息我们应该怎么保证发送和消费的顺序一致
- 消息太多了,怎么保证消费脚本消费速度,以便更得上业务的处理需求,避免消息无限积压
- 我想要发送的消息,等上几秒钟的时间再消费到,该怎么做
当然我们对于以上的这些问题,针对业务开发者来说,可以进行提炼,得到以下几个重点问题:
- 消息顺序性保证
- 避免消息丢失
- 消息的重复问题
- 消息积压处理
- 延迟消息处理
4. 问题的解决方案
4.1 消息顺序性保证
常规的消息中间件和流处理中间件,本身设计一般都能支持顺序消息,但是根据中间件本身不同的设计目标,有不同的原理架构,导致我们业务中使用中间件的时候,要针对性做不同的处理。
以下几个常用消息或流中间件的顺序消息设计以及使用中乱序问题分析:
RabbitMQ:
RabbitMQ的单个队列(queue)自身,可以保证消息的先进先出,在设计上,RabbitMQ所提供的单个队列数据是存储在单个broker节点上的,在开启镜像队列的情况下,镜像的队列也只是作为消息副本而存在,服务依然由主队列提供。这种情况下在单个队列上进行消费,天然就是顺序性的。不过由于单个队列支持多消费者同时消费,我们在开启多个消费者消费统一队列上的数据时候,消息分散到多个消费者上,在并发高的时候,多个消费者无法保证处理消息的顺序性。
解决方法就是对于需要强制顺序的消息,使用同一个MQ队列,并且针对单个队列只开启一个消费者消费(保证并发处理时候的顺序性,多线程同理)。由此引发的单个队列吞吐下降的问题,可以采取kafka的设计思想,针对单一任务开启一组多个队列,将需要顺序的消息按照其固定标识(例如:ID)进行路由,分散到这一组队列中,相同标识的消息进入到相同的队列,单个队列使用单个消费者消费,这样即可以保证消息的顺序与吞吐。
如图所示:
Kafka:
Kafka是流处理中间件,在其设计中,没有队列的概念,消息的收发依赖于Topic,单个topic可以有多个partition(分区),这些partition可以分散到多台broker节点上,并且partition还可以设置副本备份以保证其高可用。
Kafka同一个topic可以有多个消费者,甚至消费组。Kafka中消息消费一般使用消费组(消费组可以互不干涉的消费同一个topic下的消息)来进行消费,消费组中可以有多个消费者。同一个消费组消费单个topic下的多个partition时,将由kafka来调节消费组中消费者与partiton的消费进度与均衡。但是有一点是可以保证的:那就是单个partition在同一个消费组中只能被一个消费者消费。
以上的设计理念下,Kafka内部保证在同一个partition中的消息是顺序的,不保证topic下的消息的顺序性。Kafka的消息生产者发送消息的时候,是可以选择将消息发送到哪个partition中的,我们只要将需要顺序处理的消息,发送到topic下相同的partition,即可保证消息消费的顺序性。(多线程语言使用单个消费者,多线程处理数据时,需要自己去保证处理的顺序,这里略过)。
RocketMQ:
RocketMQ的一些基本概念和原理,可以通过阿里云的官网做一些了解:什么是消息队列RocketMQ版? - 消息队列RocketMQ版 - 阿里云 。
RocketMQ的消息收发也是基于Topic的,Topic下有多个 Queue, 分布在一个或多个 Broker 上,用来保证消息的高性能收发( 与Kafka的Topic-Partition机制 有些类似,但内部实现原理并不相同 )。
RocketMQ支持局部顺序消息消费,也就是保证同一个消息队列上的消息顺序消费。不支持消息全局顺序消费,如果要实现某一个主题的全局顺序消息消费,可以将该主题的队列数量设置为1,牺牲高可用性。具体图解可以参考阿里云文档: 顺序消息2.0 - 消息队列RocketMQ版 - 阿里云
4.2 避免消息丢失
消息丢失需要分为三部分来看:消息生产者发送消息到消息中间件的过程不发生消息丢失,消息在消息中间件中从接受存储到被消费的过程中消息不丢失, 消息消费的过程中保证能消费到中间件发送的消息而不会丢失。
生产者发送消息不丢失:
消息中间件一般都有消息发送确认机制(ACK), 对于客户端来说,只要配置好消息发送需要ACK确认,就可以根据返回的结果来判断消息是否成功发送到中间件中。这一步通常与中间件的消息接受存储流程设计有关系。根据中间件的设计,我们通常采取的措施如下:
- 开启MQ的ACK(或confirm)机制,直接获知消息发送结果
- 开启消息队列的持久化机制(落盘,如果需要特殊设置的话)
- 中间件本身做好高可用部署
- 消息发送失败补偿设计(重试等)
在具体的业务设计中,如果消息发送失败,我们可以根据业务重要程度,做相应的补偿,例如:
- 消息失败重试机制(发送失败,继续重发,可以设置重试上限)
- 如果依然失败,根据消息重要性,选择降级方案:直接丢弃或者降级到其他中间件或载体(同时需要相应的降级补偿推送或消费设计)
消息中间件消息不丢失:
数消息中间件的消息接收存储机制各不相同,但是会根据其特性设计,最大限度保证消息不会丢失:
RabbitMQ消息接收与保存:
- RabbitMQ 消息发送可以开启发送者confirm模式,所有消息是否发送成功都会通知发送者
- 需要开启队列消息持久化保证消息落盘
- RabbitMQ通过镜像队列来保证消息队列的高可用,但是镜像队列只有Master提供服务,其他slave只提供备份服务。
- master宕机会从slave中选择一个成为新的master提供服务
- master的生产与消费的最新状态都会广播到slave
RocketMQ消息接受与保存:
- RocketMQ普通消息发送有三种方式:同步(Sync)发送、异步(Async)发送和单向(Oneway)发送,其区别与准确性保证可以参看 发送普通消息(三种方式) - 消息队列RocketMQ版 - 阿里云 。
- 具体的RocketMQ内部设计的HA机制是主从同步机制,消息发送到Topic下并具体消息队列的Master Broker中后,会将消息同步到Slave。
- 只有Master Broker才可以接收生产者发送的消息。而消费者,可以从Master也可以从Slave拉取并消费消息。
Kafka在消息接受到保存所做的设计有:
- 分区副本方式的设计保证消息的高可用,在创建topic的时候都可以设置分区副本的数量
- 生产者可以选择接收不同类型的确认(ACK),比如在消息被完全提交时候(写入所有同步副本)的确认,或者在消息被写入首领副本时的确认,或者在消息被发送到网络时确认
- Kafka的消息,写入分区的时候仅仅是保存在某几个分区副本文件系统内存中,并不是直接刷到磁盘了,因此宕机时候,单个副本仍然可能丢失数据。Kafka不能保证单个分区副本的数据一定不丢失,而是靠分区副本机制来确保消息的完善性(分布到不同的broker上)
积压消息保存时效问题
- Kafka对于topic下的数据,有容量上限、时间上限两种消息存储上限规则,触发其中任何一个规则,都会删除淘汰之前的消息。这个尤其需要注意。
- RocketMQ,消息在服务器存储时间也有上限,达到上限的消息将会被删除。也需要做相应的考量。
- 受持久化磁盘容量的影响,存储积压的数据不能超过磁盘的上限
- 如果业务消费有异常,需要给足充足的冗余量,避免因为消费不及时而丢失数据。
消费者消费消息不丢失:
- 消息消费时候,也要开启相应的ACK机制,消息消费成功即ACK(对于Kafka就是更新消费的offset)
- 对于RocketMQ这种有消息重新消费设计的,需要设置最大消费次数,尝试失败的消息重复消费
消息ACK带来两个问题
- 消息消费失败如果不能ACK可能会导致消息消费无限阻塞在某条消息处
- 消息失败重新消费导致消息消费重复
无限阻塞的问题,可以参考RocketMQ消费失败的重试机制,对消息重试做一定的设计:
- 在消息体上设计重试次数的属性,消费失败的消息增加重试次数后重新发送到中间件,等待下一次消费,本次消费成功发回消息直接ACK
- 消息重试次数达到上限之后,如果仍不能成功,则启用降级方案,将消息存储到异常信息持久化载体如DB中
- 手动或者定时任务补偿处理失败的消息
消息重复消费问题参考下一个小节。
4.3 消息的重复问题(消费幂等)
在分析常用中间件的时候,我们往往会发现,中间件设计者将这个问题的处理,下放给中间件使用者,也就是业务开发者了。诚然,业务消费处理的逻辑比消息生产者复杂的多。生产者只需要保证将消息成功发送到中间件即可,而消费者需要在消费脚本中处理各种复杂的业务逻辑。
解决消息重复消费的问题,核心是使用唯一标识,来标记某条消息是否已经处理过。 具体方案可选的则有很多,比如:
- 使用数据库自增主键,或者唯一键来保证数据不会重复变动
- 使用中间状态,以及状态变动有序性来判断业务是否以已经被处理
- 利用一张日志表来记录已经处理成功的消息的 ID,如果新到的消息 ID 已经在日志表中,那么就不再处理这条消息
- 或者消息唯一标识,在Redis等NoSQL中维护一个处理缓存,判断是否已经处理过
- 如果消费者业务流程比较长,则需要开发者自己保证整个业务消费逻辑中数据处理的事务性
4.4 消息积压处理
通常我们在引入消息中间件的时候,已经会评估与测试消息消费的生产与消费速率,尽量使其达到平衡。但业务也有一些不可预知的突发情况,可能会造成消息的大量积压。在这个时候,我们可以采取如下的方式,来做处理:
临时紧急扩容
- 通过增加消费脚本的方式,提升消费速率,如果下游没有限制的话,可以很快的减少消息积压
- 如果消费者下游数据处理能力有限,我们可以考虑建立临时队列,通过临时脚本,将消息快速转移到临时队列,优先保证线上业务能顺利贯通,而后开启更多的消费脚本处理积压的数据。(顺序消息需要额外处理,并保证最终处理的顺序)
- 优化消费脚本的处理速度,突破下游限制,如果有可能,可以考虑批量处理,下游扩容等方式。
消息积压预防
- 做好业务设计与降级,避免产生无效消息占用资源
- 根据消息积压程度,动态增减消费者数量,减少消息积压
- 做好消息积压处理紧急预案,异常情况根据预案设计,迅速针对处理
4.5 延迟消息处理
延迟消息这一项功能,在部分MQ中间件中有实现。延时消息和定时消息其实可以互相转换。
RocketMQ:\
RocketMQ定时消息不支持任意的时间精度(出于性能考量)。只支持特定级别的延迟消息。消息延迟级别在broker端通过messageDelayLevel配置。其内部对每一个延迟级别创建对应的消息消费队列,然后创建对应延迟级别的定时任务,从消息消费队列中将消息拉取并恢复消息的原主题和原消息消费队列。
RabbitMQ:
RabbitMQ实现延迟消息通常有两个方案:一是创建一个消息延迟死信队列,搭配一个死信转发队列来实现消费延时。但是该方式如果前一个消息没达到TTL时间,后一个消息即便达到了,也不会被转发到转发队列中;另一个是使用延时Exchange插件(rabbitmq_delayed_message_exchange),消息在达到TTL之后才会转发到对应的队列中并被消费。
Kafka本身不支持延时消息或定时消息, 想要实现消息的延时,需要使用其他的方案。
借助数据库与定时任务实现延时消息:
常用数据库的索引结构都支持数据的顺序索引。借助数据库可以很方便的实现任意时间消息的延时消费。使用一张表存储数据的消费时间,开启定时任务,在满足条件之后将该消息提取出来,后续转发到顺序队列去处理或者直接处理都可以(已处理需要做标记,后续不再出现),但是直接处理需要考虑吞吐量和并发重复性等问题。不如单个脚本转发到普通队列去处理方便。数据库支持的定时任务消息积压是可控的,但是吞吐量会有局限。
借助Reids的有序列表实现延时消息:
Reids的有序列表zset结构,可以实现延时消息。将消息的消费时间作为分值,把消息添加到zset中。使用 zrangebyscore 命令消费消息
#命令格式 zrangebysocre key min max withscores limit 0 1 消费最早的一条消息 # min max分别表示开始的分值与结束的分值区间,分别使用 0和当前时间戳,可以查出达到消费时间的消息 # withscores 表示查询的数据要带分值。 limit 后面 就是查询的起始 offset 和数量 zrangebyscore key 0 {当前时间戳} withscores limit 0 1
当然,这个方案也有局限性,首先,redis必须配置持久化防止消息丢失(如果配置不合理不能100%保证,但是每个命令都持久化会造成性能下降,需要权衡);其次,如果延时消息过多会造成消息的积压形成大key;再次,需要自己做重复消费和消费失败的平衡处理(当然有可能,还是建议开启单个消费进程将延时消息转移到普通队列去消费)。
基于时间轮的任务调度:
在很多软件中,都有基于时间轮实现定时任务的实现,使用时间轮以及多级时间轮可以实现延时任务调度。如果我们希望自己实现延时任务队列,可以考虑使用此算法来实现任务的调度,但是需要自己根据具体的需求去设计支持任务的延时上限以及调度的时间粒度(多层级)。时间轮算法我这里就先不讲解了,感兴趣的可以自己去搜索了解。
5. 总结
通过以上几个小节的介绍,相信各位已经能很自然的理解 消息队列 异步解耦 的功能与核心思想,并且对如何使用MQ来架构自己的业务有了一定的认知。大多数MQ使用中的问题,只是要求我们多思考,将细节思虑周到,以保证业务的高可用。甚至,我们还可以在这几个解决方案中提炼一些核心出来,以便在业务中参照类似的思想,优化我们的业务。 比如 消息顺序性保证 其核心是顺序消息生产者发送到唯一分区,再维持固定分区的单消费者顺序消费;避免消息丢失的核心是每个步骤的确认与降级机制;消费幂等的核心是唯一性标识与步进状态;消息积压处理的核心是快速响应应急预案;延迟消息的核心是消息排序,优化点是性能提升。
科学的方法有归纳和演绎,学习问题处理方案的过程中,提炼出相应的核心思想,并在使用中演绎,将这些归纳总结的知识点,再应用到业务中去,更加得心应手的处理相应的事务,构建出高可用的业务架构,这才是我们最需要做到的。\
参考:
- 消息队列RocketMQ版 - 帮助中心 - 阿里云
- 丁威,周继锋 .《RocketMQ技术内幕——RocketMQ架构设计与实现原理》. 机械工业出版社
- Neha Narkhede,Gwen Shapira,Todd Palino .《Kafka权威指南》. 人民邮电出版社
文/LISUXING
关注得物技术,做最潮技术人!
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。