人工智能公司 Anthropic 于 8 月 14 日宣布,在其 API 上推出名为「提示缓存」(Prompt Caching)的新功能。该功能允许开发者在 API 调用之间缓存频繁使用的上下文信息,从而为 Claude 模型提供更丰富的背景知识和输出示例,同时显著降低成本和延迟。
提示缓存功能目前已在 Claude 3.5 Sonnet 和 Claude 3 Haiku 模型的公测版中提供。对于长提示,该功能可以将成本降低高达 90%,延迟降低高达 85%。Anthropic 表示,支持 Claude 3 Opus 模型的缓存功能即将推出。
该功能适用于多种场景,包括:
- 对话代理:减少长时间对话中的成本和延迟
- 代码辅助:通过保留代码库摘要来改进自动补全和问答功能
- 大型文档处理:在不增加响应延迟的情况下处理长篇内容
- 详细指令集:提供更多指令和示例来优化 Claude 的响应
Anthropic 为缓存的提示采用了新的定价模式。写入缓存的成本比基本输入令牌价格高 25%,而使用缓存内容的成本仅为基本价格的 10%。缓存的有效期为 5 分钟,每次使用都会重置计时。
DeepSeek 和 Gemini 都在早前宣布支持了上下文缓存,其中DeepSeek 的上下文缓存时间为约 24 小时。
(Anthropic)