跳转到内容

Token 使用与成本

CoderClaw 跟踪的是 token,而不是字符。Token 是模型特定的,但大多数 OpenAI 风格的模型对于英文文本平均约 4 个字符为一个 token。

CoderClaw 在每次运行时组装自己的系统提示词。它包括:

  • 工具列表 + 简短描述
  • Skills 列表(仅元数据;指令通过 read 按需加载)
  • 自我更新指令
  • 工作区 + 引导文件(AGENTS.mdSOUL.mdTOOLS.mdIDENTITY.mdUSER.mdHEARTBEAT.mdBOOTSTRAP.md(新建时))。大文件会被 agents.defaults.bootstrapMaxChars(默认:20000)截断。
  • 时间(UTC + 用户时区)
  • 回复标签 + 心跳行为
  • 运行时元数据(主机/操作系统/模型/思考)

完整分解参见系统提示词

模型接收的所有内容都计入上下文限制:

  • 系统提示词(上面列出的所有部分)
  • 对话历史(用户 + 助手消息)
  • 工具调用和工具结果
  • 附件/转录(图片、音频、文件)
  • 压缩摘要和修剪产物
  • 提供商包装或安全头(不可见,但仍计数)

有关实际分解(每个注入文件、工具、Skills 和系统提示词大小),使用 /context list/context detail。参见上下文

在聊天中使用:

  • /status → 带有会话模型、上下文使用量、 最后响应输入/输出 token 和预估成本(仅 API 密钥)的 emoji 丰富的状态卡片
  • /usage off|tokens|full → 在每个回复后附加每响应使用量页脚
    • 每会话持久化(存储为 responseUsage)。
    • OAuth 认证隐藏成本(仅 token)。
  • /usage cost → 从 CoderClaw 会话日志显示本地成本摘要。

其他界面:

  • TUI/Web TUI: 支持 /status + /usage
  • CLI: coderclaw status --usagecoderclaw channels list 显示 提供商配额窗口(不是每响应成本)。

成本从你的模型定价配置估算:

models.providers.<provider>.models[].cost

这些是 inputoutputcacheReadcacheWrite每 1M token 美元。如果缺少定价,CoderClaw 仅显示 token。OAuth 令牌 永远不显示美元成本。

提供商提示缓存仅在缓存 TTL 窗口内适用。CoderClaw 可以 选择性地运行缓存 TTL 修剪:它在缓存 TTL 过期后修剪会话,然后重置缓存窗口,以便后续请求可以重用 新缓存的上下文,而不是重新缓存完整历史。这在会话空闲超过 TTL 时 可以降低缓存写入成本。

Gateway 网关配置 中配置它,并在 会话修剪 中查看行为详情。

心跳可以在空闲间隙中保持缓存。如果你的模型缓存 TTL 是 1h,将心跳间隔设置为略低于此(例如 55m)可以避免 重新缓存完整提示,从而降低缓存写入成本。

有关 Anthropic API 定价,缓存读取比输入 token 便宜得多,而缓存写入以更高的倍率计费。参见 Anthropic 的 提示缓存定价了解最新费率和 TTL 倍率: https://docs.anthropic.com/docs/build-with-claude/prompt-caching

示例:用心跳保持 1 小时缓存热

Section titled “示例:用心跳保持 1 小时缓存热”
agents:
defaults:
model:
primary: "anthropic/claude-opus-4-5"
models:
"anthropic/claude-opus-4-5":
params:
cacheRetention: "long"
heartbeat:
every: "55m"
  • 使用 /compact 来总结长会话。
  • 在你的工作流中修剪大的工具输出。
  • 保持 skill 描述简短(skill 列表会注入到提示中)。
  • 对于冗长的探索性工作,优先使用较小的模型。

精确的 skill 列表开销公式参见 Skills