放手让 Agent 跑:分解、上下文与记忆

🚧 本章正在开发中。以下是核心论点的概要,完整内容将在后续版本发布。

卷一解决了单次交互的质量问题:写清楚规约,建好验证闭环,Agent 的单次产出可以稳定在高水平。但这里有一个隐含前提,你一直在场。每个任务你亲自给输入、盯过程、收结果、触发下一步。Agent 的速度不是瓶颈,你的带宽才是。一天能盯三四个任务就到极限了,但 Agent 明明可以做更多。

瓶颈从 Agent 能力转移到了人的可用性。解决方案的方向很明确:从实时对话伙伴变成任务设计者和验收者。把任务交出去,自己去干别的事,回来收可用的结果。

这个转变面对的核心结构性约束是 context window。Agent 在 agentic loop 中自主运转时,每一轮迭代的输入输出都追加到上下文中。当累积 token 超过有效容量,产出质量不是缓慢下降,而是断崖式崩塌。这个墙不是 bug,是 LLM 架构的固有特性。所有让 Agent 自主执行的方案都必须在这个约束下工作。

应对这个约束需要三个层面的能力。任务分解决定每个执行块的粒度,确保每块在上下文崩塌前完成。上下文工程决定每块的 context window 里装什么,让关键约束不被噪声淹没。跨会话持久化解决会话之间的记忆归零问题,让下一个 session 能从上一个的进度接着干。

这三个能力不是独立的工具箱,它们围绕同一个目标协作:让你能够把一个需要几小时的任务交给 Agent,自己离开,回来时拿到可验收的结果。实现这一点之后,效率的天花板就不再是你能同时盯几个任务,而是你能同时设计和验收几个任务。


Harness Engineering Playbook · AgentsZone Community

results matching ""

    No results matching ""