调用大模型时,不同推理请求可能出现输入内容的重叠(例如多轮对话或对同一本书的多次提问)。上下文缓存(Context Cache)技术可以缓存这些请求的公共前缀,减少推理时的重复计算。这能提升响应速度,并在不影响回复效果的前提下降低您的使用成本。
为满足不同场景的需求,上下文缓存提供两种工作模式,可以根据对便捷性、确定性及成本的需求进行选择:
- 隐式缓存:此为自动模式,无需额外配置,且无法关闭,适合追求便捷的通用场景。系统会自动识别请求内容的公共前缀并进行缓存,但缓存命中率不确定。对命中缓存的部分,按输入 Token 标准单价的 20% 计费。 
- 显式缓存:需要主动开启的缓存模式。需要主动为指定内容创建缓存,以在有效期(5分钟)内实现确定性命中。除了输入 Token 计费,用于创建缓存的 Token 按输入 Token 标准单价的 125% 计费,后续命中仅需支付 10%的费用。 
| 项目 | 隐式缓存 | 显式缓存 | 
| 是否影响回复效果 | 不影响 | 不影响 | 
| 命中概率 | 不确定,具体命中概率由系统判定 | 确定性命中 | 
| 用于创建缓存Token计费 | 输入 Token 单价的100% | 输入 Token 单价的125% | 
| 命中缓存的输入 Token 计费 | 输入 Token 单价的20% | 输入 Token 单价的10% | 
| 缓存最少 Token 数 | 256 | 1024 | 
| 缓存有效期 | 不确定,系统会定期清理长期未使用的缓存数据 | 5分钟(命中后重置) | 
隐式缓存与显式缓存互斥,单个请求只能应用其中一种模式。
隐式缓存
支持的模型
北京地域
- 文本生成模型 - 通义千问 Max:qwen3-max、qwen-max 
- 通义千问 Plus:qwen-plus 
- 通义千问 Flash:qwen-flash 
- 通义千问 Turbo:qwen-turbo 
- 通义千问 Coder:qwen3-coder-plus、qwen3-coder-flash 
 
- 视觉理解模型 - 通义千问 VL:qwen3-vl-plus、qwen3-vl-flash、qwen-vl-max、qwen-vl-plus 
 
- 行业模型 
新加坡地域
- 文本生成模型 - 通义千问 Max:qwen3-max、qwen-max 
- 通义千问 Plus:qwen-plus 
- 通义千问 Flash:qwen-flash 
- 通义千问 Turbo:qwen-turbo 
- 通义千问 Coder:qwen3-coder-plus、qwen3-coder-flash 
 
- 视觉理解模型 - 通义千问 VL:qwen3-vl-plus、qwen3-vl-flash、qwen-vl-max、qwen-vl-plus 
 
暂不支持快照与 latest 模型。
工作方式
向支持隐式缓存的模型发送请求时,该功能会自动开启。系统的工作方式如下:
- 查找:收到请求后,系统基于前缀匹配原则,检查缓存中是否存在请求中 - messages数组内容的公共前缀。
- 判断: - 若命中缓存,系统直接使用缓存结果进行后续部分的推理。 
- 若未命中,系统按常规处理请求,并将本次提示词的前缀存入缓存,以备后续请求使用。 
 
系统会定期清理长期未使用的缓存数据。上下文缓存命中概率并非100%,即使请求上下文完全一致,仍可能未命中,具体命中概率由系统判定。
不足 256 Token 的内容不会被缓存。
提升命中缓存的概率
隐式缓存的命中逻辑是判断不同请求的前缀是否存在重复内容。为提高命中概率,请将重复内容置于提示词开头,差异内容置于末尾。
- 文本模型:假设系统已缓存"ABCD",则请求"ABE"可能命中"AB"部分,而请求"BCD"则无法命中。 
- 视觉理解模型: - 对同一图像或视频进行多次提问:将图像或视频放在文本信息前会提高命中概率。 
- 对不同图像或视频提问同一问题:将文本信息放在图像或视频前面会提高命中概率。 
 
如何计费
开启隐式缓存模式无需额外付费。
当请求命中缓存时,命中的输入 Token 按 cached_token 计费(单价为input_token单价的20%);未被命中的输入 Token 按标准 input_token计费。输出 Token 仍按原价计费。
示例:某请求包含 10,000 个输入 Token,其中 5,000 个命中缓存。费用计算如下:
- 未命中 Token (5,000):按 100% 单价计费 
- 命中 Token (5,000):按 20% 单价计费 
总输入费用相当于无缓存模式的 60%:(50% × 100%) + (50% × 20%) = 60%。

可从返回结果的cached_tokens属性获取命中缓存的 Token 数。
OpenAI兼容-Batch方式调用无法享受缓存折扣。
命中缓存的案例
文本生成模型
OpenAI兼容
当您使用 OpenAI 兼容的方式调用模型并触发了隐式缓存后,可以得到如下的返回结果,在usage.prompt_tokens_details.cached_tokens可以查看命中缓存的 Token 数(该数值为usage.prompt_tokens的一部分)。
{
    "choices": [
        {
            "message": {
                "role": "assistant",
                "content": "我是阿里云开发的一款超大规模语言模型,我叫通义千问。"
            },
            "finish_reason": "stop",
            "index": 0,
            "logprobs": null
        }
    ],
    "object": "chat.completion",
    "usage": {
        "prompt_tokens": 3019,
        "completion_tokens": 104,
        "total_tokens": 3123,
        "prompt_tokens_details": {
            "cached_tokens": 2048
        }
    },
    "created": 1735120033,
    "system_fingerprint": null,
    "model": "qwen-plus",
    "id": "chatcmpl-6ada9ed2-7f33-9de2-8bb0-78bd4035025a"
}DashScope
当您使用DashScope Python SDK 或 HTTP 方式调用模型并触发了隐式缓存后,可以得到如下的返回结果,在usage.prompt_tokens_details.cached_tokens可以查看命中缓存的 Token 数(该数值是 usage.input_tokens 的一部分。)。
使用 DashScope Java SDK 调用支持隐式缓存功能,但暂时无法查看cached_tokens。{
    "status_code": 200,
    "request_id": "f3acaa33-e248-97bb-96d5-cbeed34699e1",
    "code": "",
    "message": "",
    "output": {
        "text": null,
        "finish_reason": null,
        "choices": [
            {
                "finish_reason": "stop",
                "message": {
                    "role": "assistant",
                    "content": "我是一个来自阿里云的大规模语言模型,我叫通义千问。我可以生成各种类型的文本,如文章、故事、诗歌、故事等,并能够根据不同的场景和需求进行变换和扩展。此外,我还能够回答各种问题,提供帮助和解决方案。如果您有任何问题或需要帮助,请随时告诉我,我会尽力提供支持。请注意,连续重复相同的内容可能无法获得更详细的答复,建议您提供更多具体信息或变化提问方式以便我更好地理解您的需求。"
                }
            }
        ]
    },
    "usage": {
        "input_tokens": 3019,
        "output_tokens": 101,
        "prompt_tokens_details": {
            "cached_tokens": 2048
        },
        "total_tokens": 3120
    }
}视觉理解模型
OpenAI兼容
当您使用 OpenAI 兼容的方式调用模型并触发了隐式缓存后,可以得到如下的返回结果,在usage.prompt_tokens_details.cached_tokens可以查看命中缓存的 Token 数(该 Token 数是usage.prompt_tokens的一部分)。
qwen3-vl-plus、qwen3-vl-flash模型使用 OpenAI  SDK 调用支持隐式缓存功能,但暂时无法查看cached_tokens。{
  "id": "chatcmpl-3f3bf7d0-b168-9637-a245-dd0f946c700f",
  "choices": [
    {
      "finish_reason": "stop",
      "index": 0,
      "logprobs": null,
      "message": {
        "content": "这张图像展示了一位女性和一只狗在海滩上互动的温馨场景。女性穿着格子衬衫,坐在沙滩上,面带微笑地与狗进行互动。狗是一只大型的浅色犬种,戴着彩色的项圈,前爪抬起,似乎在与女性握手或击掌。背景是广阔的海洋和天空,阳光从画面的右侧照射过来,给整个场景增添了一种温暖而宁静的氛围。",
        "refusal": null,
        "role": "assistant",
        "audio": null,
        "function_call": null,
        "tool_calls": null
      }
    }
  ],
  "created": 1744956927,
  "model": "qwen-vl-max",
  "object": "chat.completion",
  "service_tier": null,
  "system_fingerprint": null,
  "usage": {
    "completion_tokens": 93,
    "prompt_tokens": 1316,
    "total_tokens": 1409,
    "completion_tokens_details": null,
    "prompt_tokens_details": {
      "audio_tokens": null,
      "cached_tokens": 1152
    }
  }
}DashScope
当您使用DashScope Python SDK 或 HTTP 方式调用模型并触发了隐式缓存后,命中缓存的Token数包含在总输入Token(usage.input_tokens)中,具体查看位置因地域和模型而异:
- 北京地域: - qwen-vl-max、- qwen-vl-plus:在- usage.prompt_tokens_details.cached_tokens查看
- qwen3-vl-plus、- qwen3-vl-flash:在- usage.cached_tokens查看
 
- 新加坡地域:所有模型均查看 - usage.cached_tokens
目前使用usage.cached_tokens的模型,后续将升级至usage.prompt_tokens_details.cached_tokens。
使用 DashScope Java SDK 调用支持隐式缓存功能,但暂时无法查看cached_tokens。以下是新加坡地域模型触发隐式缓存后的返回结果。{
  "status_code": 200,
  "request_id": "06a8f3bb-d871-9db4-857d-2c6eeac819bc",
  "code": "",
  "message": "",
  "output": {
    "text": null,
    "finish_reason": null,
    "choices": [
      {
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": [
            {
              "text": "这张图像展示了一位女性和一只狗在海滩上互动的温馨场景。女性穿着格子衬衫,坐在沙滩上,面带微笑地与狗进行互动。狗是一只大型犬,戴着彩色项圈,前爪抬起,似乎在与女性握手或击掌。背景是广阔的海洋和天空,阳光从画面右侧照射过来,给整个场景增添了一种温暖而宁静的氛围。"
            }
          ]
        }
      }
    ]
  },
  "usage": {
    "input_tokens": 1292,
    "output_tokens": 87,
    "input_tokens_details": {
      "text_tokens": 43,
      "image_tokens": 1249
    },
    "total_tokens": 1379,
    "output_tokens_details": {
      "text_tokens": 87
    },
    "image_tokens": 1249,
    "prompt_tokens_details": {
      "cached_tokens": 1152
    }
  }
}典型场景
如果您的不同请求有着相同的前缀信息,上下文缓存可以有效提升这些请求的推理速度,降低推理成本与首包延迟。以下是几个典型的应用场景:
- 基于长文本的问答 - 适用于需要针对固定的长文本(如小说、教材、法律文件等)发送多次请求的业务场景。 - 第一次请求的消息数组 - messages = [{"role": "system","content": "你是一个语文老师,你可以帮助学生进行阅读理解。"}, {"role": "user","content": "<文章内容> 这篇课文表达了作者怎样的思想感情?"}]- 之后请求的消息数组 - messages = [{"role": "system","content": "你是一个语文老师,你可以帮助学生进行阅读理解。"}, {"role": "user","content": "<文章内容> 请赏析这篇课文的第三自然段。"}]- 虽然提问的问题不同,但都基于同一篇文章。相同的系统提示和文章内容构成了大量重复的前缀信息,有较大概率命中缓存。 
- 代码自动补全 - 在代码自动补全场景,大模型会结合上下文中存在的代码进行代码自动补全。随着用户的持续编码,代码的前缀部分会保持不变。上下文缓存可以缓存之前的代码,提升补全速度。 
- 多轮对话 - 实现多轮对话需要将每一轮的对话信息添加到 messages 数组中,因此每轮对话的请求都会存在与前轮对话前缀相同的情况,有较高概率命中缓存。 - 第一轮对话的消息数组 - messages=[{"role": "system","content": "You are a helpful assistant."}, {"role": "user","content": "你是谁?"}]- 第二轮对话的消息数组 - messages=[{"role": "system","content": "You are a helpful assistant."}, {"role": "user","content": "你是谁?"}, {"role": "assistant","content": "我是由阿里云开发的通义千问。"}, {"role": "user","content": "你能干什么?"}]- 随着对话轮数的增加,缓存带来的推理速度优势与成本优势会更明显。 
- 角色扮演或 Few Shot - 在角色扮演或 Few-shot 学习的场景中,您通常需要在提示词中加入大量信息来指引大模型的输出格式,这样不同的请求之间会有大量重复的前缀信息。 - 以让大模型扮演营销专家为例,System prompt包含有大量文本信息,以下是两次请求的消息示例: - system_prompt = """你是一位经验丰富的营销专家。请针对不同产品提供详细的营销建议,格式如下: 1. 目标受众:xxx 2. 主要卖点:xxx 3. 营销渠道:xxx ... 12. 长期发展策略:xxx 请确保你的建议具体、可操作,并与产品特性高度相关。""" # 第一次请求的user message 提问关于智能手表 messages_1=[ {"role": "system", "content": system_prompt}, {"role": "user", "content": "请为一款新上市的智能手表提供营销建议。"} ] # 第二次请求的user message 提问关于笔记本电脑,由于system_prompt相同,有较大概率命中 Cache messages_2=[ {"role": "system", "content": system_prompt}, {"role": "user", "content": "请为一款新上市的笔记本电脑提供营销建议。"} ]- 使用上下文缓存后,即使用户频繁更换询问的产品类型(如从智能手表到笔记本电脑),系统也可以在触发缓存后快速响应。 
- 视频理解 - 在视频理解场景中,如果对同一个视频提问多次,将video放在text前会提高命中缓存的概率;如果对不同的视频提问相同的问题,则将text放在video前面,会提高命中缓存的概率。以下是对同一个视频请求两次的消息示例: - # 第一次请求的user message 提问这段视频的内容 messages1 = [ {"role":"system","content":[{"text": "You are a helpful assistant."}]}, {"role": "user", "content": [ {"video": "https://help-static-aliyun-doc.aliyuncs.com/file-manage-files/zh-CN/20250328/eepdcq/phase_change_480p.mov"}, {"text": "这段视频的内容是什么?"} ] } ] # 第二次请求的user message 提问关于视频时间戳相关的问题,由于基于同一个视频进行提问,将video放在text前面,有较大概率命中 Cache messages2 = [ {"role":"system","content":[{"text": "You are a helpful assistant."}]}, {"role": "user", "content": [ {"video": "https://help-static-aliyun-doc.aliyuncs.com/file-manage-files/zh-CN/20250328/eepdcq/phase_change_480p.mov"}, {"text": "请你描述下视频中的一系列活动事件,以JSON格式输出开始时间(start_time)、结束时间(end_time)、事件(event),不要输出```json```代码段”。"} ] } ]
显式缓存
与隐式缓存相比,显式缓存需要显式创建并承担相应开销,但能实现更高的缓存命中率和更低的访问延迟。
使用方式
在 messages 中加入"cache_control": {"type": "ephemeral"}标记,系统将以每个cache_control标记位置为终点,向前回溯最多 20 个 content 块,尝试命中缓存。
单次请求最多支持加入4 个缓存标记。
- 未命中缓存 - 系统将从messages数组开头到 - cache_control标记之间的内容创建为新的缓存块,有效期为 5 分钟。- 缓存创建发生在模型响应之后,建议在创建请求完成后再尝试命中该缓存。 - 缓存块的内容最少为 1024 Token。 
- 命中缓存 - 选取最长的匹配前缀作为命中的缓存块,并将该缓存块的有效期重置为5分钟。 
以下示例说明其使用方式:
- 发起第一个请求:发送包含超 1024 Token 文本 A 的系统消息,并加入缓存标记: - [{"role": "system", "content": [{"type": "text", "text": A, "cache_control": {"type": "ephemeral"}}]}]- 系统将创建首个缓存块,记为 A 缓存块。 
- 发起第二个请求:发送以下结构的请求: - [ {"role": "system", "content": A}, <其他 message> {"role": "user","content": [{"type": "text", "text": B, "cache_control": {"type": "ephemeral"}}]} ]- 若“其他message”不超过 20 条,则命中 A 缓存块,并将其有效期重置为 5 分钟;同时,系统会基于 A、其他message和 B 创建一个新的缓存块。 
- 若“其他message”超过 20 条,则无法命中 A 缓存块,系统仍会基于完整上下文(A + 其他message + B)创建新缓存块。 
 
支持的模型
通义千问Max:qwen3-max
通义千问Plus:qwen-plus
通义千问Flash:qwen-flash
通义千问Coder:qwen3-coder-plus、qwen3-coder-flash
以上所列模型在中国大陆版和国际版均支持显式缓存功能。
暂不支持快照与 latest 模型。
快速开始
以下通过 OpenAI Python SDK 向代码仓库提问的示例,说明缓存块的创建与命中机制。显式缓存同样可通过 DashScope 协议启用,只需在 messages 中为特定消息添加 cache_control 字段。
暂不支持 DashScope Java SDK。
from openai import OpenAI
import os
client = OpenAI(
    api_key=os.getenv("DASHSCOPE_API_KEY"),
    base_url="https://dashscope.aliyuncs.com/compatible-mode/v1",
)
# 模拟的代码仓库内容,最小可缓存提示词长度为 1024 Token
long_text_content = "<Your Code Here>" * 400
# 发起请求的函数
def get_completion(user_input):
    messages = [
        {
            "role": "system",
            "content": [
                {
                    "type": "text",
                    "text": long_text_content,
                    # 在此处放置 cache_control 标记,将创建从 messages 数组的开头到当前 content 所在位置的所有内容作为缓存块。
                    "cache_control": {"type": "ephemeral"},
                }
            ],
        },
        # 每次的提问内容不同
        {
            "role": "user",
            "content": user_input,
        },
    ]
    completion = client.chat.completions.create(
        # 选择支持显式缓存的模型
        model="qwen3-coder-plus",
        messages=messages,
    )
    return completion
# 第一次请求
first_completion = get_completion("这段代码的内容是什么")
print(f"第一次请求创建缓存 Token:{first_completion.usage.prompt_tokens_details.cache_creation_input_tokens}")
print(f"第一次请求命中缓存 Token:{first_completion.usage.prompt_tokens_details.cached_tokens}")
print("=" * 20)
# 第二次请求,代码内容一致,只修改了提问问题
second_completion = get_completion("这段代码可以怎么优化")
print(f"第二次请求创建缓存 Token:{second_completion.usage.prompt_tokens_details.cache_creation_input_tokens}")
print(f"第二次请求命中缓存 Token:{second_completion.usage.prompt_tokens_details.cached_tokens}")模拟的代码仓库内容通过添加 cache_control标记启用显式缓存。后续针对该代码仓库的提问请求,系统可复用该缓存块,无需重新计算,可获得比创建缓存前更快的响应与更低的成本。
第一次请求创建缓存 Token:1605
第一次请求命中缓存 Token:0
====================
第二次请求创建缓存 Token:0
第二次请求命中缓存 Token:1605使用多个缓存标记实现精细控制
在复杂场景中,提示词通常由多个重用频率不同的部分组成。使用多个缓存标记可实现精细控制。
例如,智能客服的提示词通常包括:
- 系统人设:高度稳定,几乎不变。 
- 外部知识:半稳定,通过知识库检索或工具查询获得,可能在连续对话中保持不变。 
- 对话历史:动态增长。 
- 当前问题:每次不同。 
如果将整个提示词作为一个整体缓存,任何微小变化(如外部知识改变)都可能导致无法命中缓存。
在请求中最多可设置四个缓存标记,为提示词的不同部分分别创建缓存块,从而提升命中率并实现精细控制。
- 第一次请求:创建多个缓存块 - 用户首次提问关于A商品, - messages数组如下:- [ { "role": "system", "content": [ { "type": "text", // 人设信息需要大于 1024 Token "text": "### 系统人设 ###\n你是一个专业的电商客服,负责解答用户关于商品、订单和物流的问题。你的回答需要简洁、友好...", // 标记1:为人设创建一个高复用率的缓存块 "cache_control": {"type": "ephemeral"} } ] }, { "role": "user", "content": [ { "type": "text", "text": "### 知识库 ###\n关于A商品:\n- 材质:纯棉\n- 发货地:杭州\n- 预计发货时间:24小时内" // 标记2:为人设+知识库创建一个可复用的缓存块 "cache_control": {"type": "ephemeral"} }, { "type": "text", "text": "### 用户问题 ###\n请问A商品是什么材质的?" } ] } ]- 系统将创建两个缓存块: - 缓存块A: - [系统人设]。
- 缓存块B: - [系统人设] + [知识库片段]
 
- 第二次请求 - 第二次请求可能涉及 A 商品或其他商品。由于首次请求创建的多个缓存块,系统可在不同场景下命中相应缓存。 - 情况1:用户继续追问A商品 - 新问题:“那它从哪里发货?”。此时系统人设与知识库均无需变化。 - [ { "role": "system", "content": [ { "type": "text", "text": "### 系统人设 ###\n你是一个专业的电商客服,负责解答用户关于商品、订单和物流的问题。你的回答需要简洁、友好...", "cache_control": { "type": "ephemeral" } } ] }, { "role": "user", "content": [ { "type": "text", "text": "### 知识库 ###\n关于A商品:\n- 材质:纯棉\n- 发货地:杭州\n- 预计发货时间:24小时内" // 标记2 依然存在 "cache_control": {"type": "ephemeral"} }, { "type": "text", "text": "### 用户问题 ###\n那它从哪里发货?" // 变化的部分 } ] } ]- 命中结果: 系统优先匹配最长前缀,将成功命中缓存块B ( - [系统人设] + [知识库片段])。
- 情况2:用户转而询问“X商品” - 新问题:“X商品什么时候发货?”。此时系统人设不变,知识库内容更新。 - [ { "role": "system", "content": [ { "type": "text", "text": "### 系统人设 ###\n你是一个专业的电商客服...", // 标记1 依然存在 "cache_control": {"type": "ephemeral"} } ] }, { "role": "user", "content": [ { "type": "text", "text": "### 知识库 ###\n关于X商品:\n- 材质:涤纶\n- 发货地:广州\n- 预计发货时间:48小时内" // 知识库内容已变化 // 标记2 依然存在 "cache_control": {"type": "ephemeral"} }, { "type": "text", "text": "### 用户问题 ###\nX商品什么时候发货?" } ] } ]- 命中结果: 知识库变化导致无法命中缓存块 B,但系统仍可命中缓存块 A - ([系统人设])。同时,系统会基于新内容创建缓存块 C:- [系统人设] + [X商品知识库],供后续复用。
 
通过添加多个缓存标记块,即使部分内容变化,系统仍可命中缓存。
如何计费
显式缓存仅影响输入 Token 的计费方式。规则如下:
- 创建缓存:新创建的缓存内容按标准输入单价的 125% 计费。若新请求的缓存内容包含已有缓存作为前缀,则仅对新增部分计费(即新缓存 Token 数减去已有缓存 Token 数)。 - 例如:若已有 1200 Token 的缓存 A,新请求需缓存 1500 Token 的内容 AB,则前 1200 Token 按缓存命中计费(标准单价的 10%),新增的 300 Token 按创建缓存计费(标准单价的 125%)。 - 创建缓存所用的 Token数通过 - cache_creation_input_tokens参数查看。
- 命中缓存:按标准输入单价的 10% 计费。 - 命中缓存的 Token数通过 - cached_tokens参数查看。
- 其他 Token:未命中且未创建缓存的 Token 按原价计费。 
可缓存内容
仅 messages 数组中的以下消息类型支持添加缓存标记:
- 系统消息(System Message) 
- 用户消息(User Message) 
- 助手消息(Assistant Message) 
- 工具消息(Tool Message,即工具执行后的结果) 
若请求包含tools参数,在messages中添加缓存标记还会缓存其中的工具描述信息。
以系统消息为例,需将 content 字段改为数组形式,并添加 cache_control 字段:
{
  "role": "system",
  "content": [
    {
      "type": "text",
      "text": "<指定的提示词>",
      "cache_control": {
        "type": "ephemeral"
      }
    }
  ]
}此结构同样适用于 messages 数组中的其他消息类型。
缓存限制
- 最小可缓存提示词长度为 1024 Token。 
- 缓存采用从后向前的前缀匹配策略,系统会自动检查最近的 20 个 content 块。若待匹配内容与带有 - cache_control标记的消息之间间隔超过 20 个 content 块,则无法命中缓存。
- 仅支持将 - type设置为- ephemeral,有效期为 5 分钟。
- 单次请求最多可添加 4 个缓存标记。 - 若缓存标记个数大于4,则最后四个缓存标记生效。 
使用示例
常见问题
Q:如何关闭隐式缓存?
A:无法关闭。隐式缓存对所有适用模型请求开启的前提是对回复效果没有影响,且在命中缓存时降低使用成本,提升响应速度。
Q:为什么创建显式缓存后没有命中?
A:有以下可能原因:
- 创建后 5 分钟内未被命中,超过有效期系统将清理该缓存块; 
- 最后一个 - content与已存在的缓存块的间隔大于20个- content块时,不会命中缓存,建议创建新的缓存块。
Q:显式缓存命中后,是否会重置有效期?
A:是的,每次命中都会将该缓存块的有效期重置为5分钟。
Q:不同账号之间的显式缓存是否会共享?
A:不会。无论是隐式缓存还是显式缓存,数据都在账号级别隔离,不会共享。
Q:相同账号使用不同模型显式缓存是否会共享?
A:不会。缓存数据存在模型间隔离,不会共享。
Q:为什么usage的input_tokens不等于cache_creation_input_tokens和cached_tokens的总和?
A:为了确保模型输出效果,后端服务会在用户提供的提示词之后追加少量 Token(通常在10以内),这些 Token 在 cache_control 标记之后,因此不会被计入缓存的创建或读取,但会计入总的 input_tokens。