在LLM应用中,高达70%的提示是重复的。前缀缓存可以将推理成本降低多达90%,从而优化性能并节省资金。
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
@
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。