AIエージェントは、タスクが終わると学びが消える「記憶の忘却」問題を抱えています。
Google Cloud AIの研究チームは、イリノイ大学アーバナ・シャンペーン校、イェール大学と共同で、成功と失敗の両方から推論戦略を抽出する記憶枠組み「ReasoningBank」を提案しました。
ReasoningBankは、各タスク完了後に「メモリ検索」「メモリ抽出」「メモリ統合」の3段階で閉ループ運用します。
新しいタスク開始時は、埋め込み類似検索で関連メモリを取得し、システムプロンプトへ文脈として注入します。
取得数は基本的にk=1が最適で、k=4では成功率が49.7%から44.4%に低下したと報告されています。
タスク終了後は、同じバックボーンLLMが軌跡を分析し、「タイトル」「説明」「内容」の3要素からなる構造化メモリとして圧縮します。
成功時は検証済みの戦略を、失敗時は反事実的な落とし穴や予防的知見を反映します。
また、正誤ラベルなしで成功/失敗を判定するために「LLM-as-a-Judge」を用い、精度が約70%まで落ちても頑健性が保たれたとしています。
さらに研究チームは、ReasoningBankとテスト時の計算増量を結び付ける「MaTTS」も導入しました。
並列または逐次で複数の軌跡を生成し、得られた多様な結果を対比信号としてメモリ品質を高めます。
WebArenaでは、メモリなしの40.5%から48.8%へ成功率が8.3ポイント改善し、平均手順も最大で削減されました。
SWE-Bench-Verifiedでも、Gemini-2.5-Proで解決率57.4%(メモリなし54.0%)などの向上が示されています。
同研究では、蓄積したメモリが手順チェックリストから自己省察や合成戦略へと進化する「創発的戦略進化」も観察したとしています。
参照元:2026/04/23 「Google Cloud AI Research Introduces ReasoningBank: A Memory Framework that Distills Reasoning Strategies from Agent Successes and Failures」 https://www.marktechpost.com/2026/04/23/google-cloud-ai-research-introduces-reasoningbank-a-memory-framework-that-distills-reasoning-strategies-from-agent-successes-and-failures/



コメント