LLM Memory APIとMCPの違いとは?|MCP入門 7.2|ユーザー記憶と文脈設計を統合する方法

7.2 LLM Memory APIとMCP

大規模言語モデル(LLM)の進化に伴い、「一時的な対話」から「継続的な関係性」へと活用シーンが広がっています。 この文脈で注目されているのが、各社が提供するMemory APIです。 ユーザーの好みや履歴を記憶し、モデルの応答に反映させるこの仕組みは、MCPにおける「Persistent Context」に対応するものであり、両者の関係を整理・理解することは今後のAI実装において極めて重要です。

Memory APIとは何か?

Memory APIとは、モデル側に対して「ユーザーに関する情報」を永続的に保存・更新・参照する機構です。 たとえば以下のようなデータが保存されます:

  • ユーザー名・呼び方・性別・職業
  • 過去の会話要約
  • 好まれる出力スタイル(例:短め、フォーマル、カジュアル)
  • タスクやゴールの履歴

これらの情報はモデルからはブラックボックスとして保持され、プロンプト設計者が直接的に制御することはできません。 そのため、透明性・可視性・応答再現性という点で課題もあります。

MCPとの違いと補完関係

MCPでは、ユーザー情報や履歴といった文脈はアプリケーション側で管理し、スロットやテンプレートを通じて明示的にモデルに渡すことを前提としています。 つまり、MCPは「プロンプトベースの文脈制御」に特化しており、Memory APIのようなモデル内部の自動処理とは思想が異なります。

しかし両者は対立関係ではなく、次のような補完的関係にあります:

  • MCPが記述する構造(state, context)をMemory APIの初期値として利用
  • Memory APIが返す要約や属性情報を、MCPのスロットとして利用
  • Memoryの内容を明示的に表示し、ユーザーが「意図通りの応答か」を確認できる仕組みをMCP側で設計

実装例:MCPによるMemory拡張

たとえば、以下のようなMCPスロット構成で、Memory APIが返す情報を整形・利用できます:

  • "user_name": "田中さん"
  • "tone_preference": "丁寧語、短め"
  • "conversation_summary": "前回は返金ポリシーについて不満があった"

こうした情報をプロンプトに明示的に埋め込むことで、Memory APIの“見えない状態”を、制御可能な文脈として再構成することが可能になります。

まとめ

Memory APIは、LLMが“ユーザーを覚えているようにふるまう”ための重要な技術であり、 MCPはその「設計図」として、情報の透明性・一貫性・再利用性を担保する役割を果たします。 今後は、この2つを組み合わせて活用することが、信頼性のあるAI設計のスタンダードとなっていくでしょう。

次のセクションでは、こうしたAI文脈の標準化を進める国際的な動きとして、7.3 W3CのAI Context仕様に向けた動きを紹介します。 → 7.3 W3CのAI Context仕様に向けた動きへ進む

公開日: 2025-04-03
最終更新日: 2025-05-14
バージョン: 1

下田 昌平

開発と設計を担当。1994年からプログラミングを始め、今もなお最新技術への探究心を持ち続けています。

チーム

任 弘毅

株式会社レシートローラーにて開発とサポートを担当。POSレジやShopifyアプリ開発の経験を活かし、業務のデジタル化を促進。

下田 昌平

開発と設計を担当。1994年からプログラミングを始め、今もなお最新技術への探究心を持ち続けています。