Skip to content
Published on

2026年のAIエージェントフレームワーク — LangGraph / AutoGen / CrewAI / OpenAI Agents SDK / Anthropic Agent SDK 徹底比較ガイド

Authors

プロローグ — 2026年、エージェントフレームワークのカンブリア爆発

2023年の春、LangChainのReActノートブックが初めて流行ったとき、「エージェントフレームワーク」という言葉はほぼLangChainの同義語だった。2024年にはAutoGenとCrewAIが現れ、マルチエージェントというキーワードが定着した。2025年にはOpenAIが実験的だったSwarmを正式SDKに昇格させたAgents SDKを発表し、AnthropicはClaude Code SDKという形で自社のエージェントループを外部に開放した。そして2026年、この市場はカンブリア爆発そのものだ。

同じ「AIエージェントを書くための道具」というカテゴリの中に — モデルベンダー公式SDK、グラフベースのステートマシン、ロールベースのクルー、ミニマルなコード実行エージェント、フルスタックTypeScriptバックエンドフレームワーク、構造化出力ファーストのライブラリ、UI統合SDKがすべて入っている。本記事はその地図を描く

エージェントフレームワークはライブラリではなく意見(opinion)である。 あるフレームワークを選ぶということは、そのフレームワークが下した「エージェントとはこう書くべきだ」という意見に同意するということだ。だからあなたは道具を選んでいるのではなく、意見を選んでいる。

本記事の構成:

  1. 2026年のフレームワーク地図 — 誰が作り、誰が使うか
  2. エージェントとは何か — Andrew Ngの4パターン
  3. ReAct / Plan-and-Execute / Tree-of-Thought
  4. OpenAI Agents SDK (2025年3月)
  5. Anthropic Agent SDK / Claude Code SDK (2025年9月)
  6. LangGraph — ステートマシン・グラフ
  7. AutoGen 0.4 — マルチエージェント対話
  8. CrewAI — ロールベースのクルー
  9. smolagents・Mastra・Pydantic AI — ミニマル系
  10. MCP (2024年11月) — ツール統合の標準
  11. A2A — エージェント間通信の標準
  12. どのフレームワークを選ぶか
  13. 韓国・日本企業の導入状況
  14. 参考文献

1章 · 2026年のAIエージェントフレームワーク地図

まず大局。フレームワークの作り手で分類するとこうなる。

モデルベンダー公式SDK陣営

  • OpenAI Agents SDK (2025年3月発表)。実験的だったSwarmを正式SDKに昇格。handoff・trace・guardrailsがファーストクラス。
  • Anthropic Agent SDK / Claude Code SDK (2025年9月GA)。Claude Code内で実戦投入済みのエージェントループを外部公開。サブエージェントとフックがコア。
  • Vercel AI SDK (厳密にはベンダーではないがモデルアグリゲーター)。React/Next.jsのUI統合が強み。

オーケストレーションフレームワーク陣営

  • LangGraph (LangChainの後継)。ステートマシンとグラフでワークフローを書く。明示的なノードとエッジで流れを設計する。
  • AutoGen 0.4 (Microsoft Research)。マルチエージェント対話。非同期アクターモデルへ大規模リライト。
  • CrewAI。「ロールベースのクルー」というメタファーで最速プロトタイピング。マネージャー・研究員・ライターのようなエージェントを組む。
  • LlamaIndex Agents。RAG中心。インデックスと検索がファーストクラス。
  • Bee Agent Framework (IBM)。エンタープライズ向けエージェント、マルチモデル・マルチベンダー対応。

ミニマル・コードファースト陣営

  • smolagents (Hugging Face, 2024年)。コード実行をエージェントのファーストクラス・ツールに。「コードは新しい関数呼び出しだ」。
  • Mastra (TypeScript)。バックエンドフルスタック。ワークフロー・エージェント・メモリ・RAGを一箱に。
  • Pydantic AI (Pydanticチーム)。構造化出力ファースト。型安全性が中核価値。

標準陣営 — フレームワークではなくプロトコル

  • MCP (Model Context Protocol) — Anthropicが2024年11月に公開したツール統合プロトコル。
  • A2A (Agent-to-Agent) — 2025年に登場した、異なるベンダーのエージェント同士を呼び出すためのプロトコル候補。

この地図の含意はシンプルだ。「唯一の正解フレームワーク」は存在しない。 どんな問題か、どんなチームか、どのモデルを使うかで答えが変わる。


2章 · エージェントとは何か — Andrew Ngの4パターン

Andrew Ngは2024年春の講演でエージェントの4つのコアデザインパターンを整理した。2年が経った今でも、最もきれいな分類だ。

パターン1: Reflection (自己批判) モデルが自分の出力を批判して改善する。コードレビューのように「初稿 → 批判 → 修正」のループ。追加モデルなしで品質が大きく上がる。

パターン2: Tool Use (ツール使用) モデルが外部ツールを呼び出す。検索・電卓・コード実行・API呼び出し。これがLLMを「エージェント」に変える最初の段階。

パターン3: Planning (計画) モデルが多段階タスクをあらかじめ計画してから実行する。Plan-and-Executeパターン。複雑なタスクではアドホックなReActよりも効率的。

パターン4: Multi-Agent (多重エージェント) 複数のエージェントが役割を分担して協力する。マネージャー・ワーカー、討論、ライター・エディター構造。単一エージェントのコンテキスト膨張問題を分散で解く。

各フレームワークがどのパターンをファーストクラスで扱うかで見ると、整理しやすい。

フレームワークReflectionTool UsePlanningMulti-Agent
OpenAI Agents SDK自前1級補助1級 (handoff)
Anthropic Agent SDK自前1級補助1級 (subagent)
LangGraphノードで表現1級1級 (graph)1級
AutoGen1級 (critic)1級1級1級 (conversation)
CrewAI自前1級1級 (Process)1級 (Crew)
smolagents補助1級 (CodeAgent)補助補助
Pydantic AI補助1級補助補助
LlamaIndex Agents補助1級1級補助
Mastra補助1級1級 (workflow)1級
Vercel AI SDK補助1級補助補助

3章 · ReAct / Plan-and-Execute / Tree-of-Thought — コアパターン比較

各フレームワークの底には必ず「ランタイムアルゴリズム」がある。代表的な3つを見る。

3.1 ReAct (Reasoning + Acting)

原典はYaoら(2022年)。モデルがThought・Action・Observationを交互に出す。コードでは単純なwhileループ。

while not done and step < max_steps:
    response = model.complete(messages)
    if response.is_final_answer:
        break
    tool_result = execute(response.tool_call)
    messages.append(response)
    messages.append(tool_result)
    step += 1
  • 長所: シンプル、モデルの推論力を直接活用、失敗時の即時適応。
  • 短所: コンテキストが急速に膨れ、複雑タスクでは方向を見失いやすい。

LangGraphのprebuilt ReAct agent、OpenAI Agents SDKのデフォルトエージェント、CrewAIのデフォルトtask実行はすべてこのパターン。

3.2 Plan-and-Execute

まず全体計画を立てて、それから実行する。Wangら(2023年)の「Plan-and-Solve」。計画段階ではモデルを一度だけ呼び、実行段階では小さいモデルや決定論的コードに任せることもできる。

Stage 1 (Planner):  目標 → ステップ1, ステップ2, ..., ステップN
Stage 2 (Executor): 各ステップを順次/並列に実行、必要なら再計画
  • 長所: トークン効率が良い、並列化可能、監査可能。
  • 短所: 環境変化への適応が遅い。計画が間違うと再計画コストが発生。

LangGraphのPlan-and-Executeサンプル、CrewAIのhierarchical Processがこのパターンを支える。

3.3 Tree-of-Thought

複数の推論経路をツリーに展開し、最も有望な枝を選ぶ。Yaoら(2023年)。コストは高いが難しい推論・計画問題に強い。

        目標
       /  |  \
   思考A  思考B  思考C
     |    |    |
   ... 評価して最良の枝を選ぶ ...
  • 長所: 難問に強い、自己検証が組み込まれる。
  • 短所: コスト爆発、実装が複雑。

純粋なToTをファーストクラスで支えるフレームワークは少ない。LangGraphなら自前のグラフで書ける。AutoGenのGroupChatを応用して近いことはできる。


4章 · OpenAI Agents SDK (2025年3月) — Swarmの後継

2025年3月、OpenAIは実験プロジェクトだったSwarmを正式製品に昇格したAgents SDKを公開した。Python(公式)とTypeScript(2025年後半)の両対応。

コアな抽象

  • Agent — システムプロンプト + ツール + モデル。
  • Handoff — エージェントが別のエージェントへ制御を渡す。
  • Guardrail — 入出力の検証(PII、ポリシー違反など)。
  • Tracing — 全ステップがOpenAIダッシュボードに可視化される。

コード例

from agents import Agent, Runner, handoff

triage = Agent(
    name="triage",
    instructions="顧客の質問を分類して適切な専門家に渡す。",
    handoffs=[refund_agent, support_agent],
)

result = Runner.run_sync(triage, "返金してほしい")
print(result.final_output)

handoffはLangGraphのエッジやAutoGenの次話者選択に似ているが、エージェントが他エージェントを関数のように直接呼ぶ点が違う。思考が命令型(imperative)になる。

強み

  • OpenAIモデルとの統合が最高 — Realtime API、Voice、Computer Useもファーストクラス。
  • Tracingダッシュボードが強力 — すべてのtoolCallとhandoffが可視化される。
  • 構造化出力と組み合わせて型安全なワークフローが書きやすい。

弱み

  • ベンダーロックイン — 非OpenAIモデルはLiteLLMアダプタ経由。
  • グラフ可視化や複雑なステートマシンはLangGraphに劣る。
  • マルチエージェントを「対話」として捉えるメタファーはAutoGenほど強くない。

5章 · Anthropic Agent SDK / Claude Code SDK (2025年9月)

Anthropicは2024年から自社のコーディングエージェントClaude Codeを運用してきた。2025年9月、その内部エンジンをClaude Agent SDKとして外部公開した。

コアコンセプト

  • Agent loop — Anthropicモデルのtool_useトークンを基盤としたループ。
  • Subagent — エージェントが子エージェントを生成し、隔離されたコンテキストで作業させられる。
  • Hook — ツール呼び出し前後、応答直後などのlifecycleにユーザーコードを差し込める。
  • Permission gate — 危険なツールはユーザー承認を要求。
  • MCP統合 — Anthropicが作ったMCP標準がファーストクラス。

コード例

import { ClaudeAgent } from '@anthropic-ai/claude-agent-sdk'

const agent = new ClaudeAgent({
  model: 'claude-sonnet-4',
  systemPrompt: 'You are a careful research assistant.',
  tools: [webSearchTool, fileTool],
  hooks: {
    beforeToolUse: async (call) => {
      console.log('about to call', call.name)
    },
  },
})

const result = await agent.run('Explain MCP in 5 bullets.')

強み

  • Claude Codeで鍛えられたループ — コンテキスト管理・context rot対応が最も成熟。
  • サブエージェントと権限ゲートがファーストクラス — コード実行のような高リスクツールを安全に扱える。
  • MCPがネイティブ — Anthropicが標準を作ったので当然。

弱み

  • Anthropicモデルへのロックイン(他モデルは自前アダプタが必要)。
  • Python/TS両対応だが、エコシステムはOpenAIより小さい。
  • グラフ型ワークフローのモデリングはLangGraphほど明示的ではない。

6章 · LangGraph — ステートマシン・グラフ

LangGraphはLangChainチームが作った「エージェントをグラフとして書く」フレームワーク。LangChainの自由なchain構成がデバッグ地獄を生んだので、明示的なノード・エッジ・状態を導入した。

コアモデル

  • State — グラフ全体で共有される単一の状態オブジェクト。
  • Node — 状態を受け取り、変形した状態を返す関数。
  • Edge — 次にどのノードへ進むかを決める。
  • Conditional Edge — 状態に応じて分岐。
  • Checkpoint — どこでも状態スナップショットを保存・復元できる。

コード例

from langgraph.graph import StateGraph, END

graph = StateGraph(State)
graph.add_node("planner", planner_node)
graph.add_node("executor", executor_node)
graph.add_node("verifier", verifier_node)

graph.set_entry_point("planner")
graph.add_edge("planner", "executor")
graph.add_conditional_edges(
    "verifier",
    lambda s: "retry" if s.needs_retry else "done",
    {"retry": "executor", "done": END},
)

app = graph.compile()
result = app.invoke({"goal": "deploy app"})

強み

  • 明示性 — グラフがコードに描かれ、デバッグしやすい。
  • 人間が介入する地点をノードとして明示できる。
  • チェックポイントで中断・再開・タイムトラベルが可能。
  • LangSmithでtraceが強力。

弱み

  • 学習曲線が最も急 — グラフのメンタルモデルに慣れるまで時間が必要。
  • 単純なReActには抽象化が過剰。
  • LangChainの重い依存を一部引き込む。

7章 · AutoGen 0.4 (Microsoft) — マルチエージェント対話

Microsoft Researchが作ったAutoGenは2023年からマルチエージェントの代表格だった。2024年末から2025年初頭に0.4でほぼ書き直しが行われ、コアは非同期アクターモデルに移行した。

コアコンセプト

  • AssistantAgent — LLMを持つエージェント。
  • UserProxyAgent — ユーザー(あるいは決定論的コード)を代理する。
  • GroupChat — 複数エージェントが一つのチャットルームにいて、マネージャーが次の話者を選ぶ。
  • AutoGen Studio — GUIでマルチエージェント・ワークフローを設計。

コード例 (0.4の新API)

from autogen_agentchat.agents import AssistantAgent
from autogen_agentchat.teams import RoundRobinGroupChat
from autogen_ext.models.openai import OpenAIChatCompletionClient

model = OpenAIChatCompletionClient(model="gpt-4o")
coder = AssistantAgent("coder", model_client=model)
reviewer = AssistantAgent("reviewer", model_client=model)

team = RoundRobinGroupChat([coder, reviewer], termination_condition=...)
result = await team.run(task="Implement quicksort in Python")

強み

  • マルチエージェント対話のメタファーが最も自然。
  • AutoGen Studioで非エンジニアもワークフローを作れる。
  • Microsoft Researchが作っているだけあって研究パターンの実装が早い(debate, society of minds, ...)。

弱み

  • 0.3 → 0.4のマイグレーションが大変。
  • 単一エージェントしか要らないなら過剰。
  • 「対話」というメタファーがすべてのワークフローに合うわけではない。

8章 · CrewAI — ロールベースのクルー

CrewAIは2024年に登場し、「最速プロトタイピングのマルチエージェントフレームワーク」の座を素早く確保した。メタファーが直感的だ。エージェントは役割(role)を持ち、クルー(crew)がタスク(task)を処理する

コアコンセプト

  • Agent — role・goal・backstory・toolsを持つ一人格。
  • Task — 誰が・何を・どんな出力形式で。
  • Crew — エージェントの集まり。Processで実行方式を選ぶ(sequential, hierarchical, ...)。
  • Flow — 決定論的ワークフロー + エージェントの結合 (2024年後半に追加)。

コード例

from crewai import Agent, Task, Crew, Process

researcher = Agent(
    role="Senior Researcher",
    goal="Find the latest trends in AI agents.",
    backstory="You are a tireless researcher with 10 years of experience.",
    tools=[search_tool],
)
writer = Agent(
    role="Tech Writer",
    goal="Turn research into a clear blog post.",
    backstory="You write for developers who want signal, not hype.",
)

research_task = Task(description="Research the top 5 trends.", agent=researcher)
write_task = Task(description="Write a 1000-word post.", agent=writer)

crew = Crew(agents=[researcher, writer], tasks=[research_task, write_task], process=Process.sequential)
result = crew.kickoff()

強み

  • プロトタイピング速度が最高 — 10分でマルチエージェントが動く。
  • メタファーが非エンジニアに通じる — PMやデザイナーとも設計できる。
  • 無料枠の中で学習しやすい。

弱み

  • 内部動作がブラックボックスに近く、デバッグが難しい。
  • 複雑な分岐ロジックはLangGraphより表現が弱い。
  • プロダクションで信頼性を上げるには、結局Flowsのような決定論的構造に寄せる必要が出る。

9章 · smolagents / Mastra / Pydantic AI — 新しいミニマル系

重いフレームワークに疲れた人たちのために、2024〜2025年にミニマル系が登場した。

9.1 smolagents (Hugging Face, 2024)

Hugging Faceが作った意図的に小さなエージェントライブラリ。一行要約: 「コードは新しい関数呼び出しだ」

  • デフォルトのエージェント型がCodeAgent — JSONツール呼び出しの代わりに、モデルがPythonコードを書いてサンドボックスが実行する。
  • 依存関係とコードが非常に小さい(数千行)。
  • どんなモデルも差し替えられるよう抽象化が薄い。
from smolagents import CodeAgent, HfApiModel

agent = CodeAgent(tools=[search_tool], model=HfApiModel())
agent.run("What is the GDP per capita of Korea in 2025?")
  • 長所: コード実行が強力 — N個のツールを直接呼ぶ代わりに、コード一つにまとめられる。デバッグが楽。
  • 短所: コード実行のサンドボックスはユーザー責任。大規模ワークフローの抽象は乏しい。

9.2 Mastra (TypeScript, 2025年に勢いが付いた)

MastraはTypeScriptのフルスタック・バックエンド・フレームワーク。Vercel AI SDKがReact/Next.jsのフロント統合に強いとすれば、Mastraはバックエンド側のワークフロー・メモリ・エージェント・RAGを一つの箱に入れる。

  • ワークフロー(deterministic)とエージェント(LLM)がファーストクラスで共存する。
  • メモリ・ベクタストア・RAGパイプラインがビルトイン。
  • Cloudflare Workers・Vercel・自前ホスト、どれでも動く。
import { Agent } from '@mastra/core'

const agent = new Agent({
  name: 'support',
  instructions: 'You answer support questions.',
  model: { provider: 'OPEN_AI', name: 'gpt-4o' },
  tools: { lookupOrder, refund },
})

const result = await agent.generate('Where is my order?')
  • 長所: TypeScriptフルスタックのバックエンドに自然。ワークフローとエージェントの結合がきれい。
  • 短所: エコシステムが新しい。Python側にあるものがTSにはまだない場合が多い。

9.3 Pydantic AI (Pydanticチーム, 2024年後半)

Pydanticチームが作ったライブラリ。一行要約: 「FastAPIがWebにしたことを、LLMにする」

  • すべての入出力をPydanticモデルで型付け。
  • エージェント関数がデコレータベースで軽く書ける。
  • モデルの依存性注入が自然。
from pydantic import BaseModel
from pydantic_ai import Agent

class Order(BaseModel):
    id: str
    status: str

agent = Agent('openai:gpt-4o', result_type=Order)
result = await agent.run('Look up order 12345.')
print(result.data.status)  # 型安全
  • 長所: 型安全と構造化出力が最優先。FastAPI/Pydantic親和的なコードベースで摩擦が少ない。
  • 短所: マルチエージェントやグラフワークフローは自前。若いライブラリ。

10章 · MCP (2024年11月) — ツール統合の標準

2024年11月、Anthropicは**Model Context Protocol (MCP)**を公開した。一行要約: エージェントとツールの間のUSB-C

問題意識

それまで各フレームワークは独自のツール定義フォーマットを持っていた。LangChain Tool・OpenAI function・Anthropic tool_useが全部少しずつ違った。新しいツールを作ると、Nフレームワークにつき N 回書く羽目になった。MCPはこれを解こうとする。

コアコンセプト

  • MCPサーバー — ツール・リソース・プロンプトを提供するプロセス。
  • MCPクライアント — LLMクライアント(エージェント)がサーバーに接続する。
  • トランスポート — stdio, HTTP+SSE, WebSocket。
  • スキーマ — JSON Schemaでツール署名を記述。

どこで使われているか

  • AnthropicのClaude DesktopとClaude CodeがネイティブMCPクライアント。
  • 2025年中盤以降、OpenAI Agents SDK・LangGraph・Cursor・WindsurfといったメジャーツールがMCPクライアント対応を追加。
  • 結果: 一度書いたMCPサーバーが複数のエージェントランタイムでそのまま使える。

意義

MCPは「どのフレームワークを選ぶか」と独立にツールを標準化する。フレームワークは乗り換えられても、よく書かれたMCPツールは次のフレームワークでも使える。ロックインの大きな緩和装置だ。


11章 · A2A (Agent-to-Agent) — エージェント間通信の標準

MCPが「エージェント ↔ ツール」の標準だとすれば、A2Aは「エージェント ↔ エージェント」の標準候補だ。2025年春にGoogleが初公開を主導し、複数ベンダーが参加している。

なぜ必要か

異なる会社のエージェントが協力する時代が来ようとしている。例: 自社の営業エージェントが、提携先の価格エージェントに見積もりを依頼する。両者は異なるフレームワーク・異なるモデル・異なるホストで動いている。

そのときに必要なもの:

  • エージェントが自分の能力(skill)を広告する手段。
  • エージェントが他エージェントの能力を発見する手段。
  • エージェント同士で作業を委任し、結果を受け取る手段。
  • 認証・権限・監査トレイル。

コアアイデア

  • Agent Card — 各エージェントは自分の能力を記述したJSONカードを公開する。
  • A2A呼び出し — HTTP・JSON-RPCベース。非同期タスクとストリーミングに対応。
  • MCPと直交 — MCPはツール抽象、A2Aはエージェント抽象。

A2Aは2026年現在まだ「確定」した標準ではないが、組織境界を越えるマルチエージェントには結局こうした標準が必要になる。MCPが1年で事実上の標準になったのと同様に、A2Aも素早く定着する可能性がある。


12章 · どのフレームワークを選ぶか

意思決定ガイド。シナリオ別のおすすめ。

シナリオA — 「Jupyterノートブックで素早く一度動かしたい」

OpenAI Agents SDKまたはCrewAI。10分で結果が出る。

シナリオB — 「プロダクションのチャットボット・サポートエージェント」

OpenAI Agents SDK (OpenAIモデル中心) または Anthropic Agent SDK (Claude中心)。guardrail・trace・権限ゲートがファーストクラス。

シナリオC — 「ワークフローが複雑で分岐・リトライが多い」

LangGraph。明示的なグラフとチェックポイントが活きる。

シナリオD — 「複数のエージェントが議論・協力する」

AutoGen 0.4またはCrewAI。マルチエージェント・メタファーが強い。

シナリオE — 「RAG中心 — 自社ドキュメントを上手く検索」

LlamaIndex Agents。インデックスと検索がファーストクラス。またはMastraのTSバックエンド。

シナリオF — 「TypeScript / Next.jsのフルスタック」

Vercel AI SDK (UI中心) + Mastra (バックエンド・ワークフロー)。

シナリオG — 「型安全と構造化出力が最優先」

Pydantic AI (Python) または Vercel AI SDK (TS)。

シナリオH — 「コード実行がコア — データ分析・サイエンス」

smolagentsのCodeAgent。またはOpenAI Code Interpreter

シナリオI — 「エンタープライズ — マルチベンダーモデル・監査・ガバナンス」

Bee Agent Framework (IBM) または LangGraph + LangSmith。

シナリオJ — 「将来、他社のエージェントと協力する可能性」

→ MCP対応のあるフレームワークなら何でも。A2Aの発展も注視。

意思決定チェックリスト (10項目)

  1. 第一に使うモデルは何か?(ベンダーロックインのSDKを受け入れられるか)
  2. シングルエージェントかマルチか?
  3. ReActで十分か、Plan-and-Executeが必要か?
  4. グラフ可視化とステートマシンが必要か?
  5. human-in-the-loopが必要か?
  6. チェックポイント・タイムトラベルが必要か?
  7. ツールはMCPで標準化する価値があるか?
  8. traceダッシュボードはどこで見るか?(LangSmith・OpenAI traces・自前)
  9. 言語の好み?PythonかTypeScriptか?
  10. 半年後に他フレームワークへ乗り換える出口はあるか?

13章 · 韓国・日本企業のエージェント導入

最後に東アジアの導入状況を短く。

韓国

  • LG AI Research (EXAONE) — 自社の巨大モデルEXAONE上で独自エージェント基盤を開発中。社内R&D・文書検索エージェントから先行投入。
  • Kakao Enterprise / Kakao Brain — KoGPT後継モデルと自社エージェントツール。社内生産性Botから始めて外部展開を試行。
  • Naver Clova / HyperCLOVA X — 自社のエージェント基盤CLOVA Studio上でコーディング・コールセンター・エージェントを社内検証。
  • スタートアップ — UpstageやSqueeze AIなどがRAG・文書エージェントに強い。LangGraphやCrewAIの採用が一般的。
  • Samsung / SK — 社内コーディング支援、運用エージェントなどにClaude Code SDKとOpenAI Agents SDKの両方を評価中。

日本

  • NTT (tsuzumi) — 自社LLM tsuzumiとNTT DOCOMOの音声・通信データを組み合わせた産業エージェント。R&DではAutoGen・LangGraph両方の実験。
  • ソフトバンク — OpenAIとの提携を軸に、Stargate Japanのデータセンター・エージェント基盤投資。自社コールセンター・営業エージェントにOpenAI Agents SDKを検証。
  • Preferred Networks — 自社モデルPLaMo上で産業自動化エージェント。製造・物流領域。
  • 楽天 — Rakuten AIという自社モデルとLangChain/LangGraphベースの社内エージェント。
  • メルカリ — カスタマーサポート・中古取引分類にAnthropic Claudeベースのエージェントを試験運用。

共通パターン

  • 「自社モデル + 外部SDK」の組合せが一般的。モデルはデータ主権の関係で国内製を使うが、エージェントSDKはグローバル標準に追随する。
  • 社内生産性(コーディング支援、議事録・文書自動化、運用Bot)が最初に投入される領域。
  • 日本はNTT・ソフトバンクが通信インフラと結合したエージェントに強み。韓国は検索・コンテンツ・ゲームの活用が早い。
  • MCP採用が2026年に加速 — Cursor・Claude Codeの国内利用拡大が大きな牽引要因。

14章 · 参考文献 / References

公式ドキュメント優先、主要な学術・公開発表のみ。

フレームワーク公式ドキュメント

プロトコルと標準

コア論文・デザインパターン

さらに読むなら


エピローグ — 意見を選ぶということ

一行要約: エージェントフレームワークは道具ではなく意見だ。OpenAI Agents SDKは「エージェントは関数のように互いにhandoffする」と言う。LangGraphは「エージェントはステートマシンだ」と言う。CrewAIは「エージェントは役割だ」と言う。Anthropic Agent SDKは「エージェントはコンテキスト管理がすべてを決める」と言う。smolagentsは「エージェントはコードを書く」と言う。

同じ問題でも、意見が違えば解法が違う。だから — モデルを選ぶときと同じくらい — フレームワークの意見を意識して選ぼう

次の記事候補: エージェント評価システムの徹底解剖(Inspect AI、Promptfoo、LangSmith)、MCPサーバーを自分で書く、サブエージェント・オーケストレーションのパターン。

「フレームワークはライブラリではなく意見である。意見を選んでいるという自覚こそ、道具選びの最初の一歩だ」

— 2026年のAIエージェントフレームワーク、おわり。