MITが「壊滅的忘却」防ぐ新ファインチューニング手法を開発
技術的ブレークスルー
LLMが既存スキルを失わずに新スキルを習得可能
壊滅的忘却問題への実用的解決策を提示
企業のモデル管理コストを大幅に削減
出典:VentureBeat
詳細を読む
MITとImproba Labsの研究者が、LLMに新しいスキルを教えても既存の知識を失わない新しいファインチューニング手法を発表しました。これまでの手法では新タスクへの適応(ファインチューニング)が既存の能力低下(壊滅的忘却)を引き起こすという根本的な課題がありました。
この問題はエンタープライズ向けLLM活用において深刻です。特定業務に特化したモデルを作ろうとすると、汎用的な能力が失われ、結果としてスキルごとに別々のモデルを維持管理する必要が生じていました。
新手法によりこのサイクルが断ち切られれば、企業は単一のモデルを継続的に成長させることができ、モデル管理の複雑さとコストを大幅に削減できます。実用化に向けた検証が今後の焦点となります。