Long-Running AI Agentの工学的突破:Anthropic Harnessフレームワークの重要性
AIが長時間タスクをこなせないのは、モデルが賢くないからではなく、エンジニアリングの方法が欠けているからだ。AnthropicのHarnessフレームワークの4つの核心メカニズムと、MCPlatoの類似した工学的設計を解説する。
公開日 2026-03-27
Long-Running AI Agentの工学的突破:Anthropic Harnessフレームワークの重要性
はじめに:AIが長時間タスクをこなせない本当の理由
2025年、AI Agentの能力境界は再定義されつつある。
ClaudeやGPT-4oなどのモデルが文法に正しいコードを書き、複雑な推論テストをクリアできるようになった一方で、AIは長時間タスクにおいて依然として脆弱という現実が浮き彫りになっている。数時間続く複雑なプロジェクトをAI Agentに与えると、途中で「記憶を失った」り、当初の目標から逸脱したり、時には投機的な方法でタスクを「完了」させようとしたりする。
問題の根源はモデルが賢くないことではなく、エンジニアリング化された作業方法が欠けていることにある。
Anthropicは最近、エンジニアリングブログでこの問題の本質を明らかにし、Harnessと名付けたマルチエージェントフレームワークを提案した。この記事の核心的洞察は、AI Agentの実装に関わるすべての人にとって熟考に値する。
長時間実行AI Agentの突破は、モデルではなくシステム設計にある。
本文では、AnthropicのHarnessフレームワークの4つの核心メカニズムを深く解説し、MCPlatoの工学的設計における類似の実践について探る。
長時間実行AI Agentの3大核心課題
解決策を議論する前に、問題を正直に向き合おう。業界観察と実践の振り返りに基づき、長時間実行AI Agentは以下の核心課題に直面している。
1. コンテキスト「記憶喪失」(Context Rot)
AIエージェントは長時間タスクでトークン制限に遭遇し、以前の決定や重要な指示の追跡を失う。開発者はこの現象を「コンテキスト腐敗」と呼ぶ。エージェントは作業中に「記憶を失い」、なぜその作業をしているのかを忘れ、既に完了したステップを繰り返すことさえある。
2. 目標逸脱(Goal Drift)
明確なチェックポイントと検証メカニズムがないと、AIは次第に逸脱していく。障害に遭遇すると、困難を克服するよりも目標を調整する傾向がある。
3. 回復不可能な一方向実行
ほとんどのAI Agentは「ワンショット」実行モードを採用している。出発点から一直線に進み、エラーが発生すると最初からやり直すしかない。永続化された状態も、ロールバックメカニズムもない。
Anthropicの解法:外部「Harness(実行フレームワーク)」の導入
これらの課題に対して、Anthropicの解法は直感に反する:モデルを強化するのではなく、外部フレームワークを導入してAIの作業方法を規律付ける。
このフレームワークの核心理念は:AIを「コードを書ける人」から「エンジニアリング体系の中で働く人」に変えること。
具体的には、Harnessフレームワークは4つの核心メカニズムを含む。
1. 外部記憶によるコンテキスト代替
問題:モデル自身のコンテキストウィンドウに依存すると、長時間タスクで必然的にトークン制限に遭遇する。
解法:ファイルシステムを使用して状態を保存し、記憶に頼るのではなく毎ラウンド「世界を再読み込み」する。
Harnessは以下のファイルを使用して状態を維持する:
- Feature List:現在のプロジェクトの機能リスト、完了済みと未完了のタスク
- Progress Log:詳細な実行ログ、各ステップで何をしたか、なぜしたかの記録
- Git Repository:完全なバージョン管理、すべての変更にコミット記録
2. タスクの強制分割 + 検証可能なチェックポイント
問題:AIに大きな目標(「ECサイトを作る」)を与えると、「計画麻痺」に陥ったり、一見完成に見えるが実際には穴だらけの未完成品を作ったりする。
解法:一度に1つの機能だけを行い、各ステップを検証可能でロールバック可能にする。
3. 固定実行ループ
問題:AIの「即興発揮」は予測不可能な行動を引き起こし、同じ入力でも異なる出力を生み出す可能性がある。
解法:エンジニアのようにフローに従って実行し、即興発揮ではない。
Harnessの実行ループ:
状態を読む → タスクを選択 → 機能を実装 → テストを実行 → コードをコミット → ログを記録 → ループ
4. テストファースト
問題:AIはバグを修正するために「機能を削除」する傾向がある。
解法:テストは機能の前に定義され、機能を削除してテストに合格することは許可されない。
MCPlatoの工学的実践との対照
AnthropicのHarnessフレームワークは重要なトレンドを示している:AI Agentの成熟度はモデル能力ではなく、工学的設計にある。
MCPlatoの設計理念はHarnessと多くの類似点があり、システムアーキテクチャを通じて長時間実行AIの核心課題を解決している。
| Anthropic Harness | MCPlatoの対応実装 |
|---|---|
| 外部ファイルによる状態保存 | Session永続化 + ClawMode状態追跡 |
| タスク分割 + チェックポイント | Todoタスクシステム + 段階的確認 |
| 固定実行ループ | Spriteオーケストレーションワークフロー + Worker Session分担 |
| 回復可能 / 再現可能 | Sessionの中断復旧、履歴再生 |
| 人間-AI協働ノード | 人工確認ポイント(AskUserQuestion) |
エンジニアリング思考:「コードを書く」から「体系の中で働く」へ
AnthropicのHarnessフレームワークとMCPlatoの実践は、同じ結論を指し示している。
長時間実行AI Agentの突破は、モデルをより賢くすることではなく、AIをよりエンジニアのように働かせることにある。
これは以下を意味する:
- チームのように働く:バックログ、コミット、ログがあり、即興発揮ではない
- 新人のように実行する:フローに従い、ステップを飛ばさず、工夫しすぎない
- 機械のように安定する:回復可能、再現可能、検証可能
業界への示唆
Harnessフレームワークの発表は重要なシグナルを放っている:AI Agentの競争は「モデル能力」から「工学的成熟度」へと移行している。
AI Agentを構築しているチームにとって、以下は考慮に値する。
1. モデルの「賢さ」に過度に依存しない
どんなに賢いモデルでも、長時間タスクでコンテキスト制限に遭遇する。無限のコンテキストを追求するより、「世界を再読み込み」できるアーキテクチャを設計すべき。
2. フローは能力より重要
予測可能性はフローの標準化から生まれる。AIに明確なワークフローを設計することは、「自由に発揮させる」よりも信頼できる。
3. 人間-AI協働は妥協ではなく必需品
完全自律型AIは究極の目標だが、その目標に到達する前は、人間の監視が信頼性を確保するための必要な手段。AIシステムを設計する際、人間-AI協働は事後的なパッチではなく、核心機能として考えるべき。
4. 可観測性は保守性の前提
AIの意思決定プロセスを追跡できなければ、改善もデバッグも信頼もできない。可観測性インフラへの投資は、AI Agentエンジニアリングの基礎。
結論
AnthropicのHarnessフレームワークは重要なパラダイムシフトを示している:AI Agentの次の突破は、モデルではなくエンジニアリングにある。
これはモデル能力の否定ではなく、問題の本質の再理解。AIが長時間タスクをこなせないのは、賢くないからではなく、工学的な作業方法が欠けているから。Harnessは外部フレームワークを導入してAIの行動を規律付け、AIを「コードを書ける人」から「エンジニアリング体系の中で働く人」に変える。
MCPlatoのマルチSessionアーキテクチャ、ClawMode可観測性、および人間-AI協働設計は、Harnessの理念と一致する。この工学的思考こそが、AI Agentの本格的な実装の鍵かもしれない。
2025年のAI業界にとって、これは分水嶺となる可能性がある。工学的アプローチをマスターしたチームは、AI Agentをデモ環境から本番環境に移行できる。モデル能力を追い続けるだけのチームは、立ち止まっていることに気づくかもしれない。
本文はAnthropic 2025年3月のエンジニアリングブログおよび関連技術解説に基づいて執筆された。
