你的 Agent 连续运行了 12 个小时。对话上下文增长到了 200,000 个 Token。每一次新的对话轮次都在处理完整的上下文窗口——导致你的账单在单个会话中就飙升了 $50。
问题所在:无限制的上下文增长
当 OpenClaw Agent 运行一个长时间的持续会话时——无论是长达数小时的编码任务、马拉松式的研究,还是彻夜的自动化任务——对话上下文都会随着每一轮对话而增长。如果没有护栏:
- 第 1 轮:5K 上下文 Token
- 第 50 轮:50K 上下文 Token
- 第 200 轮:200K 上下文 Token —— 每一条新输入现在都包含了 200K Token 的历史记录
成本呈指数级加速。由于上下文变得更大,每一轮对话都比上一轮更贵。当你意识到时,该会话可能已经消耗了比平时多出几个数量级的金额。
ClawBridge 如何检测(诊断 A07)
成本控制中心会检查你的 OpenClaw 配置是否启用了护栏压缩 (safeguard compaction)。这是 OpenClaw 的一项内置功能,当对话超过阈值时会自动进行总结和压缩——但许多用户将其禁用了,或者甚至不知道它的存在。
该诊断会在以下情况触发:
- 未启用
compaction.safeguard - 未配置
contextTokens限制 - 最近的会话超过了 100K 上下文 Token
一键修复
点按应用 (Apply) 即可启用带有合理默认值的护栏压缩:
contextTokens: 100000—— 触发压缩前的最大上下文窗口- 压缩会将较旧的对话历史总结为压缩格式
- 新的轮次仅处理总结 + 最近的消息,而不是完整的历史记录
压缩如何工作
当上下文超过阈值时:
- OpenClaw 会将较旧的对话轮次总结为紧凑格式。
- 总结会替换掉完整的历史记录,从而大幅降低 Token 计数。
- Agent 在对过去上下文(以压缩形式呈现)有完整认知的状态下继续工作。
这并不是“遗忘”——而是智能压缩。Agent 会保留会话早期关键的事实和决策。
权衡
- 信息丢失:压缩在设计上就是有损的。对话早期的细微细节可能会丢失。对于需要完美回忆每一行内容的会话,这是一个权衡。
- 压缩质量:总结的质量取决于模型。更优秀的模型生成的总结更好。
- 阈值调整:100K Token 对大多数用户来说是一个合理的默认值。如果你的 Agent 经常需要深度上下文(例如审查大型代码库),你可能需要将其设置得更高。
真实数据
在 Claude Sonnet 上进行 12 小时不带压缩的编码会话:
| 轮次范围 | 平均上下文大小 | 每轮成本 | 轮次数 | 小计 |
|---|---|---|---|---|
| 1–50 | 25K token | $0.075 | 50 | $3.75 |
| 51–100 | 75K token | $0.225 | 50 | $11.25 |
| 101–200 | 150K token | $0.450 | 100 | $45.00 |
| 总计 | $60.00 |
开启 100K Token 压缩后:
| 轮次范围 | 平均上下文大小 | 每轮成本 | 轮次数 | 小计 |
|---|---|---|---|---|
| 1–50 | 25K token | $0.075 | 50 | $3.75 |
| 51–100 | 75K token | $0.225 | 50 | $11.25 |
| 101+ | ~50K (已压缩) | $0.150 | 100 | $15.00 |
| 总计 | $30.00 |
节省额:单次会话节省 $30。
常见问题
问:我的 Agent 会“忘记”对话早期的内容吗? 答:它会保留关键事实和决策的总结。将其视为“笔记”而非“速记原文”。关键细节会被保留;冗长的往复交流会被压缩。
问:我可以调整阈值吗?
答:可以。ClawBridge 应用了一个合理的默认值,但你可以在 OpenClaw 配置中手动调整 contextTokens。
ClawBridge 是免费且开源 (MIT 协议) —— 秒速安装,永久拥有。 免费获取 ClawBridge →