据我了解,RabbitMQ的持久化当只有一个消费者并ACK之后,就会删除该消息。并不会像kafka那种对历史数据做持久化。并且消息也只能按生产顺序来消费。已参与了 SegmentFault 思否社区 10 周年「问答」打卡 ,欢迎正在阅读的你也加入。
据我了解,RabbitMQ的持久化当只有一个消费者并ACK之后,就会删除该消息。并不会像kafka那种对历史数据做持久化。并且消息也只能按生产顺序来消费。
已参与了 SegmentFault 思否社区 10 周年「问答」打卡 ,欢迎正在阅读的你也加入。