AIモデルの部分的再訓練でコスト削減
従来の課題
ファインチューニングで能力忘却
全体再訓練は高コスト
新たなアプローチ
部分的な再訓練を提案
「忘却」はバイアスの偏りが原因
特定層の調整で性能を維持
期待される効果
計算コストの大幅削減
出力のドリフトを抑制
より効率的なモデル更新
詳細を読む
イリノイ大学の研究者らが、AIモデルの再訓練における新たな手法を発表しました。モデルの一部のみを再訓練することで、計算コストを削減し、「破滅的忘却」と呼ばれる既存能力の低下を防ぐことが可能です。
企業がLLMを特定タスクに適応させるファインチューニングでは、モデルが以前の能力を忘れてしまう問題がありました。モデル全体の再訓練は、数百万ドルの費用と数週間の時間を要するため、大きな課題でした。
研究によれば、この「忘却」は真の記憶喪失ではなく、バイアスの偏りが原因です。そこで、モデル全体ではなく、意思決定に関わる特定の層(自己注意射影層)のみを再訓練する手法を提案しました。
このアプローチにより、新たなタスクの学習効果を維持しつつ、既存タスクの性能低下をほとんど防げます。結果として、コストを大幅に削減し、より迅速で制御しやすいモデルの更新が実現します。
現状は視覚と言語を扱う2つのモデルでの検証ですが、この原理は他のLLMや異なるモダリティにも応用可能とみられており、今後の発展が期待されます。