Anthropicがエージェントに「夢を見る」機能、擬人化命名に批判も

Dreaming機能の概要

セッション間で記憶を整理
コンテキスト窓の情報喪失を補完
Managed Agents限定の研究プレビュー
複数エージェント間で学習内容を共有

擬人化への批判

人間の認知過程を模した命名が常態化
過度な信頼や誤った道徳判断の誘発
学術研究が擬人化の弊害を指摘
Anthropic自身の憲法にも擬人的表現
詳細を読む

Anthropicは2026年5月6日、サンフランシスコで開催した開発者会議「Code with Claude」において、Claude Managed Agentsに「Dreaming」と呼ばれる新機能を発表しました。これはエージェントが最近のセッションを振り返り、将来のタスクに役立つ情報を選別して記憶として保存するスケジュール実行型の処理です。現在は研究プレビューとして、Managed Agentsプラットフォーム上でのみ利用できます。

Managed Agentsは、AnthropicのMessages APIを直接利用するよりも高レベルな、マネージドインフラ上で動作するエージェント基盤です。数分から数時間に及ぶ複雑なタスクを複数エージェントで処理する場面を想定しています。Dreaming機能は、大規模言語モデルのコンテキスト窓の制約による重要情報の喪失を防ぎ、エージェント間で共有される学習内容を最新の状態に保つ役割を担います。

一方、この命名に対してはWIREDが即座に批判記事を掲載しました。「夢を見る」「記憶する」「考える」といった人間の認知過程になぞらえた命名がAI業界全体で常態化している問題を指摘しています。OpenAIの「推論」モデルやスタートアップ各社の「記憶」機能など、同様の事例は枚挙にいとまがありません。

学術誌AI & Ethicsに掲載された研究論文によると、擬人化はAIに対する道徳的判断を歪め、過度な信頼や実在しない特性の投影につながるリスクがあります。Anthropic自身も社内の憲法文書でClaudeに「美徳」「知恵」といった人間的概念を適用しており、マーケティング戦略にとどまらない構造的な問題であることがうかがえます。

フィリップ・K・ディックの小説『アンドロイドは電気羊の夢を見るか?』を引き合いに、WIREDは「人間と機械の境界を曖昧にする命名をやめるべきだ」と主張しています。AI企業のリーダーたちが自社ツールの限界を直視できていないのではないかという問いかけは、技術の進歩に伴うコミュニケーションの責任を改めて浮き彫りにしています。