Sakana AI、7Bモデルで複数LLMを自律制御する技術を発表

RL Conductorの仕組み

強化学習で指揮戦略を自動獲得
自然言語で各エージェントに指示を生成
タスク難度に応じワークフロー構造を動的変更

性能と効率の両立

AIME25で93.3%など最高水準
GPT-5Claude単体を上回る総合精度
トークン消費量は従来手法の約6分の1

商用展開Fugu

OpenAI互換APIで企業向けに提供開始
金融・防衛など既存パイプライン限界領域が対象
詳細を読む

Sakana AIは、わずか70億パラメータの小型言語モデルを強化学習で訓練し、GPT-5Claude Sonnet 4・Gemini 2.5 Proなど複数の大規模LLMを自律的に指揮する「RL Conductor」を発表しました。LangChainなど従来のハードコードされたパイプラインが、ユーザー需要の多様化に対応できない課題を解決する技術です。

RL Conductorは各タスクに対し、自然言語で作業指示を生成し、最適なモデルへ割り当て、エージェント間の情報共有範囲まで自動設計します。逐次チェーン、並列ツリー、再帰ループなど柔軟なワークフローを構築でき、人手による設計を一切必要としません強化学習の試行錯誤を通じて、プロンプト最適化や反復改善といった高度な戦略を自発的に獲得しています。

ベンチマーク評価では、数学(AIME25: 93.3%)、科学推論(GPQA-Diamond: 87.5%)、コーディング(LiveCodeBench: 83.93%)の各領域で最高水準を記録しました。平均精度77.27%は、個別のフロンティアモデルや既存のマルチエージェント手法を上回ります。さらに1問あたり平均1,820トークン・3ステップで処理を完了し、従来手法(MoA: 11,203トークン)と比べ大幅に効率的です。

実験では、Conductorがタスク難度を自動判定する能力も確認されました。単純な事実確認は1ステップで処理する一方、複雑なコーディング問題では最大4エージェントを動員し、設計・実装・検証の各フェーズを分担させます。モデルごとの得意領域も学習しており、コーディングではGemini 2.5 ProとClaude Sonnet 4に上流設計を任せ、GPT-5に最終コード生成を担当させるといった役割分担を自律的に行います。

Sakana AIはこの技術を商用サービス「Fugu」として製品化し、ベータ版を提供開始しています。OpenAI互換APIとして既存アプリケーションに統合でき、低遅延向けのFugu Miniと高性能向けのFugu Ultraの2種を展開します。共同著者のYujin Tang氏は、金融や防衛など既存パイプラインの汎化性能が限界に達している分野が主要ターゲットだと述べ、将来的にはテキスト・コード領域を超えたクロスモーダルな自律協調システムへの発展も示唆しました。