小型AIがGPT-4o並みに MIT新手法で推論コスト8割減
出典:MIT News
詳細を読む
米マサチューセッツ工科大学(MIT)の研究チームは2025年12月12日、小型言語モデル(SLM)の能力を飛躍的に高める新フレームワーク「DisCIPL」を発表しました。大規模言語モデル(LLM)が「計画」を担い、複数の小型モデルが「実行」を行う協調システムにより、OpenAIの最新モデル「o1」に匹敵する推論精度と、約8割のコスト削減を実現しています。
DisCIPLの仕組みは、組織における「上司と部下」の関係に似ています。まず、高性能なLLM(例:GPT-4o)がタスクの全体計画を立て、MITが開発した制御用言語「LLaMPPL」を用いて厳密な指示書を作成します。次に、軽量な小型モデル(例:Llama-3.2-1B)がその指示に従い、並列処理で実作業を行うことで、単体では困難な複雑なタスクを遂行します。
特筆すべきは、その圧倒的なコストパフォーマンスです。従来の推論モデルが思考プロセスを長文テキストで出力するのに対し、DisCIPLはPythonコードを用いて効率的に処理を行います。実験の結果、推論にかかる記述量を40.1%短縮し、全体コストを80.2%削減することに成功しました。これは企業のAI運用コストを劇的に下げる可能性を示唆しています。
研究チームは、この手法がAIのエネルギー消費問題への有効な解になると期待しています。高価なLLMだけに依存せず、安価で高速な小型モデルを組み合わせて高度な推論を実現するアプローチは、スケーラビリティが高く、ビジネスへの実装に適しています。今後は数学的推論への応用や、より曖昧な人間の好みを反映させる研究が進められる予定です。