你的 Agent 在一句话就能说清的情况下写了三段话。每一个多出来的词都是输出 Token——而在大多数模型上,输出 Token 的成本是输入 Token 的 5 倍。
问题所在:AI 喜欢长篇大论
默认情况下,大语言模型被训练得非常乐于助人且详尽。不幸的是,“详尽”通常意味着:
- 在只需 20 个字就能回答的情况下,写出 200 个字的解释。
- 在回答之前先把你的问题重复一遍。
- 在每条回复中都加上免责声明、注意事项和“如果还需要其他帮助请随时告诉我”。
- 将原本简单的回答格式化为多章节文档。
对于一个自主运行的 Agent 来说,这种冗长纯粹是浪费。没人想看一个对“今天是几号?”给出的制作精美、长达 500 Token 的回复。
ClawBridge 如何检测(诊断 A09)
成本控制中心分析你最近的对话并计算:
- 输出-输入比例:你的 Agent 每输入一个 Token 会产生多少个输出 Token?行业基准约为 0.5–1.0。如果你的比例超过 1.5,说明 Agent 过于冗长。
- 平均响应长度:每次响应包含多少个 Token?这是通过与类似用例对比得出的。
- 潜在节省额:如果响应长度减少 30%,你能节省多少钱?
一键修复
点按应用 (Apply),ClawBridge 会在你的 SOUL.md 中附加一条简洁指令:
请保持简洁。优先提供简短、直接的回答。
这一行代码在所有主流模型上都能一致地减少 25–35% 的输出冗余,且不会降低回答质量。
权衡
- 面向用户的对话:如果你的 Agent 通过 Telegram 或 Discord 与用户交流,过于简洁的回复可能会显得冷淡或不够周到。建议此优化主要针对自主运行/后台运行的 Agent。
- 文档类任务:如果你的 Agent 的职责是编写详细的报告或文档,简洁模式可能不合适。
- 易于恢复:从 SOUL.md 中删除该行即可恢复全量冗长模式。或使用 ClawBridge 中的“撤销”。
真实数据
在 Claude Sonnet 上每天产生 100K 输出 Token 的 Agent ($15/1M 输出 Token):
| 场景 | 每日输出 Token | 每月成本 | 节省额 |
|---|---|---|---|
| 默认 (冗长) | 100K | $45.00 | — |
| 简洁模式 (-30%) | 70K | $31.50 | 每月节省 $13.50 |
在 Claude Opus 上 ($75/1M 输出 Token):
| 场景 | 每日输出 Token | 每月成本 | 节省额 |
|---|---|---|---|
| 默认 | 100K | $225.00 | — |
| 简洁模式 | 70K | $157.50 | 每月节省 $67.50 |
常见问题
问:“保持简洁”真的有用吗? 答:有用。主流大模型对系统提示词中关于回复风格的指令响应非常灵敏。这是最成熟的提示词工程技术之一。
问:这不会影响 Agent 的个性吗? 答:影响极小。Agent 仍然会遵循你 SOUL.md 中的人格指令——它只是不会在每条回复中加入不必要的填充内容。
问:代码生成呢?它也会缩短代码吗? 答:不会。“保持简洁”主要影响自然语言解释,而不是代码块。代码输出的长度通常由任务决定,而非冗余设置。
ClawBridge 是免费且开源 (MIT 协议) —— 秒速安装,永久拥有。 免费获取 ClawBridge →