サカナAIの研究者は、強化学習で訓練した小型言語モデル「RL Conductor」を発表しました。
RL Conductorは、入力を動的に分析し、複数のワーカーLLMに役割分担と連携を行うことでオーケストレーションを自動化します。
従来のLangChainなどの人手で固定したエージェント設計は、ユーザー要求が多様化する本番環境で性能が頭打ちになる点が課題でした。
研究では、Qwen2.5-7Bを7B規模で微調整し、最大5ステップのエージェントワークフローを生成させる形で検証しました。
ワーカープールにはGemini 2.5 Pro、Claude Sonnet 4、GPT-5のクローズドモデルと、DeepSeek-R1-Distill-Qwen-32Bなどのオープンモデル計7種を用意しました。
その結果、RL Conductorは各種難関ベンチマークで単体の最前線モデルや既存のマルチエージェント手法を上回り、平均77.27%のスコアを記録しました。
トークン使用量も、MoAが1問あたり平均11,203トークンだったのに対し、Conductorは平均1,820トークン、平均3ステップで済みました。
さらに同社は、Conductor技術を商用のマルチエージェント連携サービス「Sakana Fugu」としてベータ提供し、OpenAI互換APIで利用可能にしています。
サカナAIは、Fugu MiniとFugu Ultraの2つの提供形態を用意し、企業のソフト開発や調査、戦略立案、スライド生成などへの統合を想定しています。
参照元:2026/05/08 「How Sakana trained a 7B model to orchestrate GPT-5, Claude Sonnet 4 and Gemini 2.5 Pro」 https://venturebeat.com/orchestration/how-sakana-trained-a-7b-model-to-orchestrate-gpt-5-claude-sonnet-4-and-gemini-2-5-pro
この記事へのリアクション
このニュースをどう受け止めましたか?



コメント