Microsoft、画像生成AIの低コスト版を1カ月で投入
詳細を読む
Microsoftは2026年4月14日、テキストから画像を生成するAIモデル「MAI-Image-2-Efficient」を発表しました。これは3月19日に公開したフラッグシップモデル「MAI-Image-2」の低コスト・高速版で、Microsoft FoundryとMAI Playgroundで即日利用可能です。わずか1カ月足らずで本番運用向けの派生モデルを投入した形になります。
価格面では、画像出力トークンが100万あたり33ドルから19.50ドルへと約41%引き下げられました。処理速度はフラッグシップ版より22%高速で、NVIDIA H100上でのGPU効率は4倍を達成しています。GoogleのGemini 3.1 Flash等の競合モデルと比較しても、中央値レイテンシで平均40%上回ると同社は主張しています。
この急速な開発を支えるのは、2025年11月にMustafa Suleyman氏率いるMAI Superintelligenceチームです。同チームは発足から5カ月足らずで、フラッグシップ画像モデル、3つの基盤モデル、そして今回のコスト最適化版と、次々に製品を送り出しています。Microsoftはスタートアップのような開発速度で自社AIスタックを構築しつつあります。
背景にはOpenAIとの関係変化があります。OpenAIの最高売上責任者が社内メモでMicrosoftとの提携が事業拡大の制約になっていると明言し、Amazon Web Servicesとの新たな連携を推進していることが報じられました。Microsoftにとって自社モデルの強化は、OpenAIへの依存を減らし売上原価を改善する経営上の必然といえます。
さらに重要なのは、AIエージェント時代への対応です。Microsoftはマーケティングキャンペーンの自動実行など、エージェントが自律的に画像生成を呼び出すワークフローを構想しています。1日に数千回呼ばれても破綻しない低コスト・低遅延の画像生成は、このビジョンの基盤要件です。MAI-Image-2-Efficientの4倍の効率改善と41%の値下げは、まさにその要件を満たすための設計判断といえます。