記憶で演じる AI キャラクター
Memory-Driven Role-Playing | arXiv
目次

AI キャラクターを配信で動かしていると、最初の 10〜15 分はいい感じなのに、30 分くらい経つと慣れてくる。キャラが崩れるというより、話題のパターンが固まってくる。毎回同じノリ、同じ話題への収束。

なんでこうなるんだろうと思いながら読んだ論文が、まさにこの問題を正面から扱っていた。

論文:Memory-Driven Role-Playing: Evaluation and Enhancement of Persona Knowledge Utilization in LLMs(arXiv:2603.19313, 2026)

本稿はこの論文の概要、4 段階の記憶能力、そして配信での活用方法を解説する。

論文の要約

問題意識:LLM はペルソナ知識を自律的に使えない

LLM のロールプレイで根本的な問題として指摘されているのが、長い会話の中でキャラクターの一貫性が保てなくなることだ。明示的なヒントを与えないと、モデルは自分のペルソナ知識を引き出して使えない。

この論文が提案するのは、ペルソナ知識を LLM の**「内部記憶」**として扱うという考え方だ。

着想のもとになっているのが、演技の世界で有名なスタニスラフスキーの「情動記憶」理論だ。役者が過去の感情体験を記憶として持ち、それを舞台上で引き出すように演じる——LLM のロールプレイもこれと同じ構造で設計できるというアイデアだ。

キャラシートをただのプロンプトとして渡すのではなく、会話の文脈に応じて内部から引き出す「記憶」として持たせる。この発想の転換が面白い。

4 段階の記憶能力(MREval)

論文ではキャラクターが「記憶で演じる」ために必要な能力を 4 段階に整理している。

能力 内容
Anchoring(アンカリング) ペルソナ知識を最初にしっかり定着させる
Recalling(リコーリング) 会話の流れに応じて関連知識を取り出す
Bounding(バウンディング) ペルソナの範囲内に留まる(知らないことは言わない)
Enacting(エナクティング) 引き出した知識を実際の応答に自然に反映する

これ、4 段階がそのまま「キャラ設計のチェックリスト」として使えそうだ。

実験結果

MRPromptという、この 4 段階を構造化して実行するプロンプトアーキテクチャを提案している。

結果として面白いのが、Qwen3-8Bという小さいモデルが、Qwen3-Max や GLM-4.7 などの大規模クローズドソースモデルに匹敵する性能を出せたという点だ。また、上流の記憶能力(Recalling や Bounding)が改善されると、下流の応答品質も直接上がることが確認されている。

配信で 30 分後に単調になる理由

冒頭の話に戻る。

配信の後半で話題が固まってくるのは、Recalling の偏りが原因だと思う。会話が積み重なるにつれ、コンテキストに「さっき出た情報」がどんどん増えていく。モデルはその目立つ情報ばかりを毎回引き出してしまう。キャラシートに書いてある他の知識は、どんどん奥に埋もれていく。

MRPrompt の考え方を使えば、「応答する前にまず何を思い出すかを整理する」ステップが入るので、会話の後半でも偏らずに引き出せる。30 分経っても「あ、そういう面もあるんだ」という新鮮さが出続けるかもしれない。

設計に活かしたいこと

Recalling を意図的に散らす

毎回同じ知識が引き出されないよう、直近の会話で使った知識を除外する仕組みを持たせるだけでも変わりそうだ。「さっき食べ物の話をしたから、今回は趣味から引き出す」みたいな。

Bounding の設計が意外と大事

「知らないことは言わない」だけでなく、「同じことを繰り返さない」ための境界線でもあると思う。キャラが「今日はもうラーメンの話した」と認識できるようにする、という設計。

小モデルで実用的に使える

Qwen3-8B で匹敵できるなら、個人開発の範囲でも試せる。MRPrompt の構造(まず記憶を整理してから応答生成)をプロンプトエンジニアリングで近似するだけでも、ある程度の効果は出るかもしれない。

MRPrompt の実装

MRPrompt は以下の 4 つのステップで構成される。

Step 1: Anchoring

まずペルソナ知識を定着させる。

あなたは [キャラクター名] です。
以下のペルソナ知識を記憶してください:
- [ペルソナ情報 1]
- [ペルソナ情報 2]
- [ペルソナ情報 3]

Step 2: Recalling

会話の文脈に応じて関連知識を取り出す。

現在の会話の文脈:
[会話履歴]

この文脈に関連するペルソナ知識を思い出してください:

Step 3: Bounding

ペルソナの範囲内に留まることを確認する。

以下の点に注意してください:
- 知らないことは「知らない」と答える
- ペルソナと矛盾することは言わない
- 同じことを繰り返さない

Step 4: Enacting

引き出した知識を実際の応答に自然に反映する。

思い出した知識を踏まえて、自然に応答してください:

おわりに

スタニスラフスキーの演技理論が LLM のロールプレイに応用されるとは、という驚きがあった。「記憶を持って演じる」という発想は、キャラクター設計の文脈でもすごく直感的だし、4 段階のフレームワークはそのまま実装の指針にもなる。

30 分の壁、MRPrompt で突破できるか、試してみたい。


参考:

引用元・参考リンク

免責事項 — 掲載情報は執筆時点のものです。料金・機能は変更される場合があります。最新情報は各公式サイトをご確認ください。