目前的思路是:
Redis缓存,服务启动时拉取缓存数据
具体实现:
1、订单进入撮合服务后立即写入redis,
2、撮合完成后异步更新Redis订单缓存数据,然后将撮合的结果通过Kafka发送给下游服务
不知道这个方案存在什么坑?传统的撮合引擎这里是怎么处理的?
目前的思路是:
Redis缓存,服务启动时拉取缓存数据
具体实现:
1、订单进入撮合服务后立即写入redis,
2、撮合完成后异步更新Redis订单缓存数据,然后将撮合的结果通过Kafka发送给下游服务
不知道这个方案存在什么坑?传统的撮合引擎这里是怎么处理的?
7 回答5.4k 阅读
6 回答7k 阅读✓ 已解决
8 回答6.4k 阅读
4 回答4.5k 阅读✓ 已解决
1 回答3.4k 阅读✓ 已解决
4 回答4.1k 阅读
4 回答3.9k 阅读✓ 已解决