Skip to content

令牌使用和成本

openclaw 跟踪令牌,而不是字符。令牌是模型特定的,但大多数 OpenAI 风格的模型平均每个令牌约 4 个英文字符。

系统提示如何构建

openclaw 在每次运行时组装自己的系统提示。它包括:

  • 工具列表 + 简短描述
  • 技能列表(仅元数据;指令通过 read 按需加载)
  • 自我更新指令
  • 工作区 + 引导文件(AGENTS.mdSOUL.mdTOOLS.mdIDENTITY.mdUSER.mdHEARTBEAT.mdBOOTSTRAP.md 当新时)。大文件会被 agents.defaults.bootstrapMaxChars(默认:20000)截断。
  • 时间(UTC + 用户时区)
  • 回复标签 + 心跳行为
  • 运行时元数据(主机/操作系统/模型/思考)

完整分解请参见系统提示

什么计入上下文窗口

模型接收的所有内容都计入上下文限制:

  • 系统提示(上面列出的所有部分)
  • 对话历史记录(用户 + 助手消息)
  • 工具调用和工具结果
  • 附件/转录(图像、音频、文件)
  • 压缩摘要和修剪工件
  • 提供商包装器或安全标头(不可见,但仍计入)

对于实际分解(每个注入文件、工具、技能和系统提示大小),请使用 /context list/context detail。请参见上下文

如何查看当前令牌使用情况

在聊天中使用这些:

  • /status表情符号丰富的状态卡片,包含会话模型、上下文使用情况、上次响应的输入/输出令牌和估计成本(仅限 API 密钥)。
  • /usage off|tokens|full → 为每个回复附加每响应使用情况页脚
    • 每个会话持久保存(存储为 responseUsage)。
    • OAuth 身份验证隐藏成本(仅显示令牌)。
  • /usage cost → 显示来自 openclaw 会话日志的本地成本摘要。

其他界面:

  • TUI/Web TUI: 支持 /status + /usage
  • CLI: openclaw status --usageopenclaw channels list 显示提供商配额窗口(不是每响应成本)。

成本估算(当显示时)

成本根据您的模型定价配置估算:

models.providers.<provider>.models[].cost

这些是 inputoutputcacheReadcacheWrite每 100 万令牌美元。如果缺少定价,openclaw 仅显示令牌。OAuth 令牌从不显示美元成本。

缓存 TTL 和修剪影响

提供商提示缓存仅适用于缓存 TTL 窗口内。openclaw 可以选择运行缓存 TTL 修剪:一旦缓存 TTL 过期,它会修剪会话,然后重置缓存窗口,以便后续请求可以重新使用新缓存的上下文,而不是重新缓存完整历史记录。这可以在会话空闲超过 TTL 时保持缓存写入成本较低。

网关配置中配置它,并在会话修剪中查看行为详情。

心跳可以在空闲间隙保持缓存温暖。如果您的模型缓存 TTL 是 1h,将心跳间隔设置为略低于该值(例如,55m)可以避免重新缓存完整提示,减少缓存写入成本。

对于 Anthropic API 定价,缓存读取比输入令牌便宜得多,而缓存写入则以更高的乘数计费。有关最新费率和 TTL 乘数,请参阅 Anthropic 的提示缓存定价: https://docs.anthropic.com/docs/build-with-claude/prompt-caching

示例:使用心跳保持 1 小时缓存温暖

yaml
agents:
  defaults:
    model:
      primary: "anthropic/claude-opus-4-5"
    models:
      "anthropic/claude-opus-4-5":
        params:
          cacheControlTtl: "1h"
    heartbeat:
      every: "55m"

减少令牌压力的技巧

  • 使用 /compact 总结长会话。
  • 在工作流中修剪大型工具输出。
  • 保持技能描述简短(技能列表被注入到提示中)。
  • 对于冗长的探索性工作,优先使用较小的模型。

有关确切的技能列表开销公式,请参见技能