何が発表されたか — Claude Managed Agentsの正体
What Was Announced — Understanding Claude Managed Agents2026年4月8〜9日、AnthropicはClaude Managed Agentsのパブリックベータを公開した。
「AIエージェントを作ることは難しくなくなった。難しいのは、それを安定して動かし続けることだ。」
これがClaude Managed Agentsが解こうとしている問題の核心だ。開発者はエージェントのロジック(何をするか)に集中でき、インフラ(どうやって動かすか)はAnthropicが面倒を見る——という役割分担を提案している。
Anthropicのドキュメントによると、Claude Managed Agentsは「Claudeを自律エージェントとして動かすためのハーネスとインフラを提供する、フルマネージドな環境」と定義される。ここでの「ハーネス(harness)」とは、ツール呼び出しの判断・コンテキスト管理・エラー回復を自動で処理する実行ループのことだ。
具体的に提供されるものを列挙すると、セキュアなサンドボックスコード実行(Bash・Pythonなどをコンテナ内で安全に実行)、認証と権限管理(OAuth・APIキーなどのクレデンシャルをエージェントが直接触れない形で管理)、チェックポイントと再開(障害発生時にセッションを途中から再開)、永続セッション(数分から数時間に及ぶタスクの状態を維持)、そしてマルチエージェント連携(エージェントがサブエージェントを生成・委任する機能、リサーチプレビュー)だ。
利用料金は基本のモデル使用料(APIの標準価格)に加え、セッション稼働時間$0.08/時間、Webサーチ利用時は$10/1,000回が追加される。フルマネージドのエージェント基盤としては競争力のある価格設定とみられる。
アーキテクチャの革新 — 「脳と手を切り離す」設計
Architectural Innovation — Decoupling the Brain from the HandsClaude Managed Agentsの最も重要な技術的革新は、エンジニアリングブログのタイトルが示す通り「脳(Brain)と手(Hands)の切り離し」だ。
従来のエージェント設計では、LLM(脳)とツール実行環境(手)が密結合していた。コンテナの管理もハーネスの管理も同じプロセス内で行われ、コンテナが壊れると全体が停止する構造だった。
Anthropicが採用したアーキテクチャは3つのコンポーネントを明確に分離する:
すべてのイベントを記録するアペンドオンリーのログ。ハーネスの外部に永続化されている。これがあれば、ハーネス自体が再起動しても wake(sessionId) でどこからでも再開できる。
Claudeを呼び出し、ツール呼び出しをルーティングするループ。ステートレスに設計されており、障害後も getSession(id) でイベントログを取得して処理を継続できる。
コードとファイル操作の実行環境。ハーネスからは execute(name, input) → string という標準インターフェースを通じてのみ呼び出される。
この分離により、コンテナが壊れてもツール呼び出しエラーとしてClaudeに渡されリトライできる。コンテナは「大切に育てるペット」ではなく「壊れたら交換する家畜」として扱える設計だ。
パフォーマンス面での効果も数値で確認されている。コンテナのプロビジョニングと推論の切り離しにより、p50のTime-to-First-Token(TTFT)が約60%改善、p95では90%以上改善したという。推論はコンテナ準備を待たずに即座に開始でき、コンテナはツール実行が必要になってから初めてプロビジョニングされる。
インフラを握ることの意味 — OpenAIとの戦略的差異
The Meaning of Owning the Infrastructure — Strategic Differences from OpenAIClaude Managed AgentsとOpenAI Agents SDKの比較は、表面的な機能差にとどまらない。両社のプラットフォーム戦略の根本的な違いを示している。
OpenAIのAgents SDKは「モデル非依存」を標榜する。GPT-4だけでなく、100以上のLLMを接続できるオープンなフレームワークだ。Anthropicの選択はその逆で、Claude専用の垂直統合プラットフォームを構築した。他社モデル(GPT-4、Gemini、オープンソースモデル)はManaged Agentsでは使えない。
「モデルを選ばせるか、エコシステムに囲い込むか」——これがエージェント戦争の本質的な構図だ。
Anthropicがインフラを握ることには、複数の含意がある。
第一に信頼性の担保。セキュリティ設計、権限管理、実行環境をAnthropicが一貫してコントロールすることで、エンタープライズが要求するコンプライアンス要件を満たしやすくなる。医療・金融・法務などの規制産業では、「誰がインフラを管理しているか」が導入可否を左右する。
第二にモデル改善へのフィードバック。エージェントの実行ログが(ユーザーの同意のもと)Anthropicに蓄積されることで、エージェントタスクに特化したモデル改善のデータが得られる可能性がある。インフラを持つことはデータを持つことでもある。
第三に価格支配力。現在のセッション料金$0.08/時間は競争的だが、エコシステムへの依存度が高まるほど価格交渉力はAnthropicに傾く。AWSやGCPが歩んだ道と同じ構造だ。
楽天グループのケースは日本視点で特に注目に値する。楽天は早期採用企業として製品・財務・マーケティング領域でManaged Agentsを展開したと報告されている。日本最大規模のECプラットフォームがAnthropicのインフラ基盤上でエージェントを動かすことは、日本企業向けのシグナルとして大きな意味を持つ。
誰が得をするか — 三者の利害分析
Who Benefits — An Analysis of Three Stakeholders- +インフラ構築の省略(数ヶ月→数週間)
- +タスク成功率向上(最大+10pt)
- +エラー回復の自動化
- △Claudeへのロックイン
- △インフラ知見が蓄積されない
- +本番エージェント導入のスピードアップ
- +セキュリティ・コンプライアンス対応
- +スケーリングの自動化
- △ベンダー依存リスク
- △大規模展開時のコスト積み上がり
- +セッション課金による収益多様化
- +エンタープライズ顧客の囲い込み
- +エージェント実行データの蓄積
- △Claudeの優位性維持が前提条件
- △競合がマネージドサービスを強化すれば差別化が薄れる
Claude Managed Agentsのローンチで利害が交差する3つのステークホルダーを整理する。
最も直接的な恩恵を受けるのは開発者だ。エージェント開発で繰り返し発生していた「インフラ構築という非本質的な作業」——コンテナ管理・クレデンシャル安全管理・障害時のリカバリロジック実装——を省略できる。Anthropicは「開発期間を数ヶ月から数週間に短縮」と主張しており、実際のベータテストでは構造化ファイル生成の成功率が標準プロンプティングより最大10ポイント改善したとしている。
一方で、Claude Managed Agentsへのロックインリスクも存在する。ハーネスの設計・スケーリング・監視をAnthropicに依存することで、将来的な移行コストが高くなる可能性がある。「自前でインフラを構築する自由」との引き換えだ。
NotionはチームがコーディングやコンテンツクリエーションのタスクをAgentsに委任できる機能を展開し、AsanaはAIチームメイトとしてプロジェクト内に統合した。SentryはPR自動生成を伴う自動バグ修正に活用している。
これらの事例に共通するのは「既存の業務フローの中にエージェントを埋め込む」という導入パターンだ。独立したAIツールとしてではなく、WorkflowのOneコンポーネントとして機能させることで、採用障壁を下げている。
短期的にはセッション課金による収益多様化。中期的にはエンタープライズ顧客の囲い込み。長期的にはエージェント実行データの蓄積によるモデル改善という三段階の利益構造が見える。2025年末時点で年率$90億だったAnthropicの収益は、2026年4月時点で$300億超まで急拡大している。Managed Agentsはこの成長をさらに加速させる触媒として期待されているとみられる。
日本企業・日本エンジニアへの影響
Impact on Japanese Companies and Engineers日本の文脈でClaude Managed Agentsをどう評価すべきか。3つの視点で整理する。
Claude Managed Agentsの公式ドキュメントや管理コンソールは現時点で英語が中心だ。ただしClaude自体の日本語能力は高く、エージェントが実行するタスクの日本語処理(文書要約・メール生成・コード解析など)は問題なく行える。インターフェースの日本語化は「いずれ来る」と期待されるが、現時点では英語環境での作業が前提となる。
楽天グループはManaged Agentsの早期採用企業として公式に名を連ねている。グローバルIT企業の日本子会社ではなく、日本発のグローバル企業が早期採用したことは、日本語ビジネス文脈でのエージェント活用可能性を示す実績として機能する。同業の日本企業にとって「楽天がやっているなら検討できる」という心理的ハードルの低下効果が期待できる。
2030年までに最大79万人のIT人材不足が予測される日本において、Managed Agentsのような「インフラを抽象化するサービス」の意義は大きい。少ない人員で高度なエージェントシステムを構築・運用できることは、日本企業の慢性的な人材不足への処方箋になりうる。
一方で懸念もある。エージェントのインフラ管理スキル(コンテナ管理・セキュリティ設計・監視)を外部に委ねることで、社内にその知見が蓄積されない可能性がある。Managed Agentsの「便利さ」と引き換えに、将来の自律性を失うリスクだ。
月200時間稼働のエージェントを1本運用すると、セッション料金だけで月$16(約2,400円)。Webサーチを1万回使えば追加で$100(約15,000円)。モデル使用料を除いたインフラコストとしては現実的な水準だが、大規模展開時には積み上がる。
エージェントの自律度と安全性 — Anthropicが解こうとしている本当の問題
Agent Autonomy and Safety — The Real Problem Anthropic Is SolvingClaude Managed Agentsには、純粋な技術的利便性とは別の重要な設計哲学がある。それはエージェントの自律度と安全性のトレードオフをどう扱うかという問題だ。
現在提供されている機能の多くは「管理下の自律性」を実現するものだ。スコープされた権限(エージェントが使えるツールと資源の範囲を明示的に制限する)、MCPサーバーのプロキシパターン(OAuthトークンをボルトに保管し、エージェントが直接アクセスできないようにする)、実行トレーシング(何が起きたかを後から追跡できる)は、すべて「強力だが制御可能なエージェント」を実現するための設計だ。
「AIエージェントが自律的に動けば動くほど、それを制御するインフラの重要性は増す。Anthropicがインフラごと提供しようとしているのは、能力と安全性を同時に管理したいからだ。」
リサーチプレビューとして公開されているOutcomes機能(目標と成功基準を定義するとClaudeが自己評価・反復する機能)はさらに高い自律度を目指すものだ。内部テストで「タスク成功率が標準プロンプティングより最大10ポイント向上」という結果は、単なる実行基盤ではなく「自律的に品質を改善するエージェント」への道筋を示している。
またMemory機能(リサーチプレビュー)は、セッションをまたいでエージェントが知識を保持する仕組みだ。今は各セッションが独立しているが、Memoryが一般公開されれば「組織の知識を蓄積するエージェント」という新たなユースケースが開く。
これらのリサーチプレビュー機能が示すAnthropicの方向性は明確だ。現在の「実行基盤の提供」は第一歩に過ぎず、最終的には「目標だけ与えれば自律的に成果を出すエージェント」を、安全に制御できる状態で提供することを目指しているとみられる。
競合との正直な比較 — Claude・OpenAI・Google
An Honest Comparison — Claude, OpenAI, and Google三大プレイヤーのエージェント戦略を比較する。それぞれに明確な強みと制約がある。
Claude Managed Agents(Anthropic)はフルマネージドのインフラ提供が最大の差別化点だ。セキュアなサンドボックス・認証・チェックポイントを含む垂直統合プラットフォームは、特にエンタープライズの「安全かつ確実に動く」という要件に応えやすい。制約はClaudeモデルへのロックインと、現時点での英語中心のインターフェース。
OpenAI Agents SDKは「モデル非依存」という自由度が強みだ。100以上のLLMを接続でき、既存のOpenAI APIとの親和性も高い。しかしフルマネージドのインフラは提供せず、ツール実行環境・状態管理・エラー回復は開発者が自前で構築する必要がある。自由と引き換えに開発負荷が高い。
Google ADK(Agent Development Kit)はVertex AIとGoogleクラウドとの深い統合が強みだ。BigQuery・Cloud Runなどとのシームレスな連携、既存Googleサービスとの統合は魅力だが、Google Cloud内に閉じたエコシステムになりがち。
エンタープライズが重視する「信頼性・セキュリティ・コンプライアンス」という軸ではClaude Managed Agentsが優位に立つ可能性がある。一方でスタートアップや個人開発者が重視する「柔軟性・コスト・モデル選択の自由」ではOpenAI Agents SDKの方が使いやすい局面も多い。
2026年4月時点では、どのプラットフォームも「作るのは簡単だが、本番で確実に動かすのは難しい」という共通課題を抱えている。Claude Managed Agentsはその課題への回答として最も整合性の高いアプローチを持っているが、実績の蓄積はこれからだ。
The Brief の視点 — 「インフラを持つことはルールを決めることだ」
The Brief's Take — 'Owning Infrastructure Means Setting the Rules'Claude Managed Agentsの本質的な意義を一言で言えば、「Anthropicがエージェント実行のプラットフォームレイヤーに踏み込んだ」ということだ。
かつてクラウドコンピューティングが「サーバーを持つのは誰か」という問いを塗り替えたように、Managed Agentsは「エージェントを動かす基盤を持つのは誰か」という問いへの答えを出そうとしている。AWSやAzureがITインフラのルールを決めてきたように、Anthropicはエージェントインフラのルールを決めようとしている。
この戦略が成功するかどうかは、主に3つの要因にかかっているとThe Briefは見る。
第一にモデルの継続的な優位性。Managed AgentsはあくまでもClaude専用だ。Claudeが「エージェントタスクで最も優れたモデル」であり続けなければ、ロックインのコストを正当化できなくなる。2026年春時点ではSWE-bench 80.8%・コーディング能力での競争力は十分だが、OpenAI・Googleも急速に追い上げている。
第二に信頼という資産。「安全なAI」を掲げるAnthropicのブランドは、規制産業での採用を後押しする。医療・金融・法務分野でのエージェント導入においては、「誰が作ったインフラか」は重要な判断基準だ。
第三にエコシステムの拡大。Notion・Rakuten・Asana・Sentryという早期採用企業のラインナップは、具体的なビジネス成果を示すケーススタディとして機能する。これが「自分たちも試してみよう」という次の企業群を引き寄せるフライホイールになる。
日本のエンジニア・事業開発担当者へのメッセージとして: Claude Managed Agentsはまだパブリックベータだ。実証実験を早めに始め、自社ユースケースでの有効性を検証する価値がある。楽天のような大企業だけでなく、スタートアップにとっても「数ヶ月のインフラ開発を数週間に圧縮できる」という価値は無視できない。ただし、依存度が高まる前に「自社でコントロールすべき部分はどこか」を明確にしておくことが重要だ。