上下文崩塌:长任务失控的结构性原因

🚧 本节正在开发中。

Agent 在 agentic loop 中每完成一轮操作,这轮的输入、工具调用、返回结果都追加到 context window 中。token 数量持续增长,但产出质量的变化不是线性的。在有效容量范围内,Agent 表现稳定。一旦超过临界点,质量断崖式下降:开始遗忘早期的约束,重复已经做过的事,甚至覆盖自己前面写的代码。

这个墙是 LLM 注意力机制的结构性特征,不是可以通过 prompt 优化绕过的 bug。上下文压缩(compaction)可以延缓到达墙的时间,但压缩本身会引入信息丢失,被压缩掉的细节在后续执行中就不存在了。理解这个墙何时出现、为什么出现,是本章所有解决方案的前提。任务分解、上下文工程、跨会话持久化,都是在这个硬约束下工作的策略。


Harness Engineering Playbook · AgentsZone Community

results matching ""

    No results matching ""