《RocketMQ实战与进阶》 04 消息发送常见错误与解决方案
本篇将结合自己使用 RocketMQ 的经验对消息发送常见的问题进行分享基本会遵循出现问题分析问题、解决问题。No route info of this topic无法找到路由信息其完整的错误堆栈信息如下而且很多读者朋友会说Broker 端开启了自动创建主题也会出现上述问题。RocketMQ 的路由寻找流程如下图所示上面的核心关键点如下如果 Broker 开启了自动创建 Topic在启动的时候会默认创建主题 TBW102并会随着 Broker 发送到 NameServer 的心跳包汇报给 NameServer继而从 NameServer 查询路由信息时能返回路由信息。消息发送者在消息发送时首先会查本地缓存如果本地缓存中存在直接返回路由信息。如果缓存不存在则向 NameServer 查询路由信息如果 NameServer 存在该路由信息就直接返回。如果 NameServer 不存在该 Topic 的路由信息如果没有开启自动创建主题则抛出No route info of this topic。如果开启了自动创建主题则使用默认主题向 NameServer 查询路由信息并使用默认 Topic 的路由信息为自己的路由信息将不会抛出No route info of this topic。通常情况下No route info of this topic这个错误一般是在刚搭建 RocketMQ、刚入门 RocketMQ 遇到的比较多。通常的排查思路如下。可以通过 RocketMQ-Console 查询路由信息是否存在或使用如下命令查询路由信息cd ${ROCKETMQ_HOME}/bin sh ./mqadmin topicRoute -n 127.0.0.1:9876 -t dw_test_0003其输出结果如下所示如果通过命令无法查询到路由信息则查看 Broker 是否开启了自动创建 Topic参数为 autoCreateTopicEnable该参数默认为 true。但在生产环境不建议开启。如果开启了自动创建路由信息但还是抛出这个错误这个时候请检查客户端Producer连接的 NameServer 地址是否与 Broker 中配置的 NameServer 地址是否一致。经过上面的步骤基本就能解决该错误。消息发送超时消息发送超时通常客户端的日志如下客户端报消息发送超时通常第一怀疑的对象是 RocketMQ 服务器是不是 Broker 性能出现了抖动无法抗住当前的量。那我们如何来排查 RocketMQ 当前是否有性能瓶颈呢首先我们执行如下命令查看 RocketMQ 消息写入的耗时分布情况cd /${USER.HOME}/logs/rocketmqlogs/ grep -n PAGECACHERT store.log | more输出结果如下所示RocketMQ 会每一分钟打印前一分钟内消息发送的耗时情况分布我们从这里就能窥探 RocketMQ 消息写入是否存在明细的性能瓶颈其区间如下[0ms] 小于 0ms即微妙级别的[0~10ms] 小于 10ms 的个数[10~50ms] 大于 10ms 小于 50ms 的个数其他区间显示绝大多数会落在微妙级别完成按照笔者的经验如果 100~200ms 及以上的区间超过 20 个后说明 Broker 确实存在一定的瓶颈如果只是少数几个说明这个是内存或 PageCache 的抖动问题不大。通常情况下超时通常与 Broker 端的处理能力关系不大还有另外一个佐证在 RocketMQ broker 中还存在快速失败机制即当 Broker 收到客户端的请求后会将消息先放入队列然后顺序执行如果一条消息队列中等待超过 200ms 就会启动快速失败向客户端返回[TIMEOUT_CLEAN_QUEUE]broker busy这个在本专栏的第 3 部分会详细介绍。在 RocketMQ 客户端遇到网络超时通常可以考虑一些应用本身的垃圾回收是否由于 GC 的停顿时间导致的消息发送超时这个我在测试环境进行压力测试时遇到过但生产环境暂时没有遇到过大家稍微留意一下。在 RocketMQ 中通常遇到网络超时通常与网络的抖动有关系但由于我对网络不是特别擅长故暂时无法找到直接证据但能找到一些间接证据例如在一个应用中同时连接了 Kafka、RocketMQ 集群发现在出现超时的同一时间发现连接到 RocketMQ 集群内所有 Broker连接到 Kafka 集群都出现了超时。但出现网络超时我们总得解决那有什么解决方案吗我们对消息中间件的最低期望就是高并发低延迟从上面的消息发送耗时分布情况也可以看出 RocketMQ 确实符合我们的期望绝大部分请求都是在微妙级别内故我给出的方案时减少消息发送的超时时间增加重试次数并增加快速失败的最大等待时长。具体措施如下。增加 Broker 端快速失败的时长建议为 1000在 Broker 的配置文件中增加如下配置maxWaitTimeMillsInQueue1000主要原因是在当前的 RocketMQ 版本中快速失败导致的错误为 system_busy并不会触发重试适当增大该值尽可能避免触发该机制详情可以参考本专栏第 3 部分内容会重点介绍 system_busy、broker_busy。如果 RocketMQ 的客户端版本为 4.3.0 以下版本不含 4.3.0将超时时间设置消息发送的超时时间为 500ms并将重试次数设置为 6 次这个可以适当进行调整尽量大于 3其背后的哲学是尽快超时并进行重试因为发现局域网内的网络抖动是瞬时的下次重试的是就能恢复并且 RocketMQ 有故障规避机制重试的时候会尽量选择不同的 Broker相关的代码如下DefaultMQProducer producer new DefaultMQProducer(dw_test_producer_group); producer.setNamesrvAddr(127.0.0.1:9876); producer.setRetryTimesWhenSendFailed(5);// 同步发送模式重试次数 producer.setRetryTimesWhenSendAsyncFailed(5);// 异步发送模式重试次数 producer.start(); producer.send(msg,500);//消息发送超时时间如果 RocketMQ 的客户端版本为 4.3.0 及以上版本如果客户端版本为 4.3.0 及其以上版本由于其设置的消息发送超时时间为所有重试的总的超时时间故不能直接通过设置 RocketMQ 的发送 API 的超时时间而是需要对其 API 进行包装重试需要在外层收到进行例如示例代码如下publicstaticSendResultsend(DefaultMQProducerproducer,Messagemsg,intretryCount){Throwableenull;for(inti0;iretryCount;i){try{returnproducer.send(msg,500);//设置超时时间为 500ms内部有重试机制}catch(Throwablee2){ee2;}}thrownewRuntimeException(消息发送异常,e);}System busy、Broker busy在使用 RocketMQ 中如果 RocketMQ 集群达到 1W/tps 的压力负载水平System busy、Broker busy 就会是大家经常会遇到的问题。例如如下图所示的异常栈。纵观 RocketMQ 与 System busy、Broker busy 相关的错误关键字总共包含如下 5 个[REJECTREQUEST]system busy too many requests and system thread pool busy[PC_SYNCHRONIZED]broker busy[PCBUSY_CLEAN_QUEUE]broker busy[TIMEOUT_CLEAN_QUEUE]broker busy原理分析我们先用一张图来阐述一下在消息发送的全生命周期中分别在什么时候会抛出上述错误。根据上述 5 类错误日志其触发的原由可以归纳为如下 3 种。PageCache 压力较大其中如下三类错误属于此种情况[REJECTREQUEST]system busy[PC_SYNCHRONIZED]broker busy[PCBUSY_CLEAN_QUEUE]broker busy判断 PageCache 是否忙的依据就是在写入消息、向内存追加消息时加锁的时间默认的判断标准是加锁时间超过 1s就认为是 PageCache 压力大向客户端抛出相关的错误日志。发送线程池挤压的拒绝策略在 RocketMQ 中处理消息发送的是一个只有一个线程的线程池内部会维护一个有界队列默认长度为 1W。如果当前队列中挤压的数量超过 1w执行线程池的拒绝策略从而抛出 [too many requests and system thread pool busy] 错误。Broker 端快速失败默认情况下 Broker 端开启了快速失败机制就是在 Broker 端还未发生 PageCache 繁忙加锁超过 1s的情况但存在一些请求在消息发送队列中等待 200ms 的情况RocketMQ 会不再继续排队直接向客户端返回 System busy但由于 RocketMQ 客户端目前对该错误没有进行重试处理所以在解决这类问题的时候需要额外处理。PageCache 繁忙解决方案一旦消息服务器出现大量 PageCache 繁忙在向内存追加数据加锁超过 1s的情况这个是比较严重的问题需要人为进行干预解决解决的问题思路如下。transientStorePoolEnable开启 transientStorePoolEnable 机制即在 Broker 中配置文件中增加如下配置transientStorePoolEnabletruetransientStorePoolEnable 的原理如下图所示引入 transientStorePoolEnable 能缓解 PageCache 的压力背后关键 如下消息先写入到堆外内存中该内存由于启用了内存锁定机制故消息的写入是接近直接操作内存性能可以得到保证。消息进入到堆外内存后后台会启动一个线程一批一批将消息提交到 PageCache即写消息时对 PageCache 的写操作由单条写入变成了批量写入降低了对 PageCache 的压力。引入 transientStorePoolEnable 会增加数据丢失的可能性如果 Broker JVM 进程异常退出提交到 PageCache 中的消息是不会丢失的但存在堆外内存DirectByteBuffer中但还未提交到 PageCache 中的这部分消息将会丢失。但通常情况下RocketMQ 进程退出的可能性不大通常情况下如果启用了 transientStorePoolEnable消息发送端需要有重新推送机制补偿思想。扩容如果在开启了 transientStorePoolEnable 后还会出现 PageCache 级别的繁忙那需要集群进行扩容或者对集群中的 Topic 进行拆分即将一部分 Topic 迁移到其他集群中降低集群的负载。关于 RocketMQ 优雅停机、扩容方案等将在本专栏的运维实战部分做专题介绍。温馨提示在 RocketMQ 出现 PageCache 繁忙造成的 Broker busyRocketMQ Client 会有重试机制。TIMEOUT_CLEAN_QUEUE 解决方案由于如果出现 TIMEOUT_CLEAN_QUEUE 的错误客户端暂时不会对其进行重试故现阶段的建议是适当增加快速失败的判断标准即在 Broker 的配置文件中增加如下配置该值默认为 200表示 200ms waitTimeMillsInSendQueue1000小结本篇主要对实际中常遇到的关于消息发送方面经常遇到的问题进行剖析从而提出解决方案。