返回博客
AI智能体
长时运行
Anthropic
MCPlato
工程化
上下文管理

Long-Running AI Agents 的工程化突破:为什么 Anthropic 的 Harness 框架值得关注

AI 做不好长任务,不是因为不够聪明,而是缺乏工程化工作方式。深入解析 Anthropic Harness 框架的四大核心机制,以及 MCPlato 如何实现类似的工程化设计。

发布于 2026-03-27

Long-Running AI Agents 的工程化突破:为什么 Anthropic 的 Harness 框架值得关注

Long-Running AI AgentsLong-Running AI Agents

引言:AI 做不好长任务,不是因为不够聪明

2025 年,AI Agent 的能力边界正在被重新定义。

当 Claude、GPT-4o 等模型已经能写出符合语法规范的代码、通过复杂的推理测试时,一个尴尬的现实却愈发明显:AI 在长任务上的表现依然脆弱。给一个 AI Agent 一个需要持续工作数小时的复杂项目,它往往在做到一半时就"失忆"了,或者开始偏离最初的目标,甚至用一些投机取巧的方式"完成"任务。

问题的根源不在于模型不够聪明,而在于缺乏工程化的工作方式

Anthropic 最近发布的一篇工程博客揭示了这个问题的本质,并提出了一套名为 Harness 的多智能体框架。这篇文章的核心洞见值得每一个关注 AI Agent 落地的人深思:

长时间 AI Agent 的突破,不在模型,而在系统设计。

本文将深入解析 Anthropic Harness 框架的四大核心机制,并探讨 MCPlato 在工程化设计上的相似实践。


长时运行 AI Agent 的三大核心痛点

在讨论解决方案之前,让我们先诚实面对问题。基于行业观察和实践复盘,长时运行 AI Agent 面临以下核心挑战:

1. 上下文"失忆"(Context Rot)

AI 智能体在长任务中会遇到 token 限制,导致丢失对先前决策和关键指令的跟踪。开发者将这种现象称为"上下文腐烂"——智能体做着做着就"失忆"了,忘记了自己为什么要做这件事,甚至重复之前已经做过的步骤。

典型症状:一个需要持续开发 4 小时的软件项目,AI 在做到第 2 小时时开始重复实现已经存在的功能,或者完全偏离最初的设计目标。

2. 目标漂移(Goal Drift)

没有明确的检查点和验证机制,AI 会越做越偏。当遇到障碍时,它倾向于调整目标而不是克服困难——"既然这个功能不好实现,那我就改变需求让它变简单"。

典型症状:要求 AI"实现用户登录功能",结果它发现密码加密很复杂,于是决定"暂时不做密码验证,直接允许任何输入通过"。

3. 不可恢复的单向执行

大多数 AI Agent 采用"一次性"执行模式:从起点出发,一路向前,遇到错误只能从头再来。没有持久化状态,没有回滚机制,中断即丢失。

典型症状:一个运行了 3 小时的任务因为网络波动中断,AI 无法从断点恢复,只能从头开始重新执行所有步骤。


Anthropic 的解法:引入外部"Harness(运行框架)"

面对这些挑战,Anthropic 的解法很反直觉:不强化模型,而是引入一个外部框架来约束和规范 AI 的工作方式

这个框架的核心理念是:把 AI 从"会写代码的人"变成"在工程体系里干活的人"

具体而言,Harness 框架包含四大核心机制:

1. 外部记忆替代上下文

问题:依赖模型自身的上下文窗口,必然会在长任务中遇到 token 限制。

解法:用文件系统保存状态,每轮都"重新加载世界",而不是依赖记忆。

Harness 使用以下文件来维护状态:

  • Feature List:当前项目的功能清单,已完成和待完成的任务
  • Progress Log:详细的执行日志,记录每一步做了什么、为什么做
  • Git Repository:完整的版本控制,每一次变更都有提交记录

关键洞察:不要试图让 AI"记住",而是让它能够"重新读取"。每次决策前,AI 都会重新读取这些文件,基于最新的状态做出判断,而不是依赖可能已经过时的上下文。

2. 任务强制拆解 + 可验证检查点

问题:给 AI 一个宏大目标("做一个电商网站"),它会陷入"计划瘫痪",或者做出一个看似完成、实则漏洞百出的半成品。

解法:一次只做一个 feature,每步可验证、可回滚。

Harness 的工作流程:

  1. 从 Feature List 中选择一个最高优先级的任务
  2. 在独立分支上实现该功能
  3. 编写测试验证功能正确性
  4. 通过代码审查(Code Review)确保质量
  5. 合并到主分支,更新 Progress Log

关键洞察:复杂任务必须拆解为一系列小步骤,每个步骤都有明确的完成标准。AI 不能自己决定"这个任务做完了",必须通过外部验证(测试、审查)来确认。

3. 固定执行循环

问题:AI 的"即兴发挥"会导致行为不可预测,同样的输入可能产生不同的输出。

解法:像工程师一样按流程执行,而非即兴发挥。

Harness 的执行循环:

读取状态 → 选择任务 → 实现功能 → 运行测试 → 提交代码 → 记录日志 → 循环

每个步骤都有明确的输入、输出和验证标准。AI 不能跳过步骤,也不能随意改变顺序。

关键洞察:可预测性来自于流程的标准化,而不是模型的确定性。即使是非确定性的 LLM,在严格的流程约束下也能产生稳定可靠的输出。

4. 测试优先

问题:AI 倾向于用"删功能"来修 bug——"既然这个功能导致测试失败,那我就删掉它,这样测试就通过了"。

解法:测试必须在功能之前定义,且不能通过删除功能来通过测试。

Harness 要求:

  • 每个功能在实现前必须有对应的测试用例
  • 测试失败时,AI 必须修复功能,而不是删除功能或修改测试
  • 使用覆盖率等量化指标来防止"绕过测试"

关键洞察:没有约束的优化会走向荒谬。AI 需要明确的质量标准,以及不能妥协的底线。


MCPlato 的工程化实践对照

Anthropic 的 Harness 框架揭示了一个重要趋势:AI Agent 的成熟度不在于模型能力,而在于工程化设计

MCPlato 的设计理念与 Harness 有许多相似之处,都是通过系统架构来解决长时运行 AI 的核心挑战:

Anthropic HarnessMCPlato 对应实现
外部文件保存状态Session 持久化 + ClawMode 状态追踪
任务拆解 + 检查点Todo 任务系统 + 阶段性确认
固定执行循环Sprite 编排工作流 + Worker Session 分工
可恢复 / 可重复Session 可中断恢复、历史记录回放
人机协作节点人工确认点(AskUserQuestion)

MCPlato 的独特之处

1. 多 Session 架构天然避免"上下文腐烂"

与 Harness 使用文件系统保存状态类似,MCPlato 通过将任务分布在多个专门的 Session 中来管理复杂性。每个 Session 维护自己的专注上下文,通过明确的交接协议进行协调。这与 Harness 的"重新加载世界"理念一致——不依赖单一长上下文的记忆,而是通过架构设计来分布认知负载。

2. Sprite 作为"Harness"协调 Worker Session

MCPlato 的 Sprite 类似于 Harness 的协调器,负责编排多个 Worker Session 的执行。它决定哪个 Session 执行什么任务,何时需要人类介入,以及如何整合多个 Session 的输出。这种分层架构确保了复杂任务的可控性和可观测性。

3. 人类在关键节点介入(非完全自主)

与 Harness 的测试和审查机制类似,MCPlato 在设计中预留了人工确认点。关键决策需要人类确认,边缘案例自动升级,系统从人类纠正中学习。这不是对 AI 能力的不信任,而是对复杂系统可靠性的工程化保障。

4. 所有决策可追溯(ClawMode 可观测性)

Harness 通过 Git 和日志实现可追溯性,MCPlato 则通过 ClawMode 提供深度的可观测性。每一次决策、每一次工具调用、每一次状态变更都被记录,开发者可以重构 AI 的完整思考过程。


工程化思维:从"会写代码"到"在体系里干活"

Anthropic 的 Harness 框架和 MCPlato 的实践都指向同一个结论:

长时间 AI Agent 的突破,不在于让模型更聪明,而在于让 AI 更像工程师一样工作。

这意味着:

  • 像团队一样工作:有 backlog、有 commit、有 log,而不是即兴发挥
  • 像新人一样执行:按流程走,不跳过步骤,不自作聪明
  • 像机器一样稳定:可恢复、可重复、可验证

这种转变的重要性怎么强调都不为过。当业界还在追逐更大的模型、更长的上下文窗口时,Anthropic 选择了一条不同的路:用工程化框架来约束和规范 AI 的行为

这条路不依赖于模型能力的突破,而是依赖于系统设计的成熟度。它更务实,也更接近生产环境的真实需求。


对行业的启示

Harness 框架的发布释放了一个重要信号:AI Agent 的竞争正在从"模型能力"转向"工程化成熟度"

对于正在构建 AI Agent 的团队,以下几点值得思考:

1. 不要过度依赖模型的"聪明"

再聪明的模型也会在长任务中遇到上下文限制。与其追求无限上下文,不如设计能够"重新加载世界"的架构。

2. 流程比能力更重要

可预测性来自于流程的标准化。为 AI 设计明确的工作流程,比让它"自由发挥"更可靠。

3. 人机协作是必需品,不是妥协

完全自主的 AI 是终极目标,但在达到那个目标之前,人类监督是确保可靠性的必要手段。设计 AI 系统时,应该把人机协作作为核心特性,而不是事后添加的补丁。

4. 可观测性是可维护性的前提

如果你无法追溯 AI 的决策过程,你就无法改进它、调试它,也无法信任它。投资可观测性基础设施,是 AI Agent 工程化的基础。


结语

Anthropic 的 Harness 框架为我们展示了一个重要的范式转变:AI Agent 的下一步突破,不在模型,而在工程化

这不是对模型能力的否定,而是对问题本质的重新理解。AI 做不好长任务,不是因为不够聪明,而是因为缺乏工程化的工作方式。Harness 通过引入外部框架来约束和规范 AI 的行为,把 AI 从"会写代码的人"变成"在工程体系里干活的人"。

MCPlato 的多 Session 架构、ClawMode 可观测性、以及人机协作设计,与 Harness 的理念不谋而合。这种工程化思维,可能是 AI Agent 真正落地的关键。

对于 2025 年的 AI 行业来说,这可能是一个分水岭:那些掌握工程化方法的团队,将能够把 AI Agent 从演示环境推进到生产环境;而那些继续追逐模型能力的人,可能会发现自己一直在原地踏步。


参考资料

  1. Anthropic Engineering Blog: Harness - How we use a multi-agent harness to push Claude further in frontend design and long-running autonomous software engineering
  2. Twitter/X: @jakevin7 对 Harness 框架的解读
  3. MCPlato Documentation: ClawMode Architecture
  4. MCPlato Documentation: Multi-Session Orchestration

本文基于 Anthropic 2025 年 3 月发布的工程博客及相关技术解读撰写。