fastapi 请求过多一般缓存方案是什么?
本地开了 fastapi , 本身要处理的 post 请求过多,要对数据库写入
想到做请求缓存队列,
一般 fastapi 缓存方案是什么?
fastapi 请求过多一般缓存方案是什么?
本地开了 fastapi , 本身要处理的 post 请求过多,要对数据库写入
想到做请求缓存队列,
一般 fastapi 缓存方案是什么?
FastAPI 本身并没有提供专门的缓存解决方案,因为缓存策略通常依赖于具体的应用和需求。但是,你可以使用各种第三方库来为 FastAPI 应用添加缓存功能。
下面是一些常见的 FastAPI 缓存方案:
Cache-Control
和 ETag
)。你可以利用这些缓存头来告诉客户端如何缓存你的响应,并在下一次请求时检查这些缓存头以确定是否需要重新获取数据。这些是常见的 FastAPI 缓存方案,但具体的选择取决于你的应用需求和架构。在选择缓存方案时,请考虑你的应用的特性,如查询频率、数据更新频率、数据一致性要求等。
这种一般称之为缓冲
。
方案的话,一般两种:写队列,写内存。思想是一样的,无非就是提高吞吐以适应接口,但同时还需要考虑数据的可靠性。
一般会使用外部中间件,如Redis,先写Redis请求直接返回。有专门的线程做数据同步,Redis->DB。或使用消息队列,如RabbitMQ、Kafka,写入成功后响应请求,然后有专门线程做数据同步。
4 回答4.5k 阅读✓ 已解决
1 回答3.3k 阅读✓ 已解决
4 回答3.8k 阅读✓ 已解决
3 回答2.2k 阅读✓ 已解决
1 回答4.5k 阅读✓ 已解决
1 回答3.9k 阅读✓ 已解决
1 回答2.8k 阅读✓ 已解决
写太多:
读太多:读缓存就用外部的 redis 或者进程内的各种数据结构,不怕 kill