Google新手法、AIの記憶と継続学習の課題を解決へ
新モデル「Hope」の実力
異なる速度で更新する多層メモリ
継続学習と長文脈で高精度を実現
リアルタイムな自己適応が可能に
実社会での柔軟な活用に期待
出典:VentureBeat
詳細を読む
Googleの研究チームは2025年11月、現在のAIモデルが抱える「記憶」と「継続学習」の限界を突破する新パラダイムNested Learningを発表しました。モデルの学習を単一ではなく多層的な最適化プロセスとして再定義し、環境に適応し続けるAIへの道を開くものです。
従来のTransformerモデルは、事前学習後は知識が固定される「静的」な存在でした。コンテキストウィンドウ(短期記憶)の容量を超えた情報は失われ、人間のように日々の経験から長期記憶を形成し、知識を更新することができない点が大きな課題でした。
この課題に対し、新手法は脳のメカニズムを模倣します。新開発されたアーキテクチャHopeは、即時的な情報から抽象的な知識まで、異なる速度で更新される複数のメモリバンクを搭載。これにより、自己参照的なループで記憶を最適化し続けます。
実証実験では、言語モデリングや複雑な推論タスクにおいて、既存のモデルを上回る精度と効率を記録しました。特に、膨大なデータの中から特定の情報を正確に見つけ出す長文脈処理において、優れたパフォーマンスを示しています。
既存のハードウェアインフラへの適応という課題は残りますが、データや環境が絶えず変化するビジネス現場において、継続的に学習するAIの価値は計り知れません。真に自律的なAIシステム実現への重要な一歩となるでしょう。