Google、マルチモーダル埋め込みモデルGemini Embedding 2を公開

GoogleGemini画像

技術的な革新点

テキスト・画像・動画・音声を単一空間に統合
3072次元の統一ベクトル空間で横断検索
Matryoshka表現学習で次元数を柔軟に調整
中間LLM変換不要でレイテンシ最大70%削減

企業導入と料金体系

Gemini APIとVertex AIの2経路で提供
テキスト・画像・動画は100万トークン0.25ドル
音声は計算負荷により0.50ドルの倍額設定
LangChain・LlamaIndex等主要フレームワーク対応

導入判断の要点

既存コーパスの再インデックスが移行コスト
法務・医療など高精度用途で検索精度20%向上
詳細を読む

Googleは2026年3月10日、新しい埋め込みモデル「Gemini Embedding 2」のパブリックプレビューを開始しました。従来のテキスト専用モデルとは異なり、テキスト・画像・動画・音声・文書を単一のベクトル空間にネイティブ統合する初の本格的マルチモーダル埋め込みモデルです。

最大の技術革新は、動画や音声をテキストに変換する中間処理が不要になった点です。従来は動画検索の際にまずテキストへの書き起こしが必要でしたが、本モデルは音声波形や動画の動きを直接理解します。これにより変換時の情報損失がなくなり、クロスモーダル検索が実現しました。

Matryoshka表現学習と呼ばれる技術により、3072次元のフルベクトルから768次元まで柔軟に圧縮でき、精度とストレージコストのバランスを企業が自ら調整できます。法務文書など高精度が求められる用途ではフル次元を、推薦エンジンなどでは圧縮版を使い分けることが可能です。

早期導入パートナーからは顕著な成果が報告されています。クリエイターエコノミー企業Sparkonomyはレイテンシを最大70%削減し、意味的類似度スコアをほぼ倍増させました。法律テック企業Everlawは訴訟証拠開示において、テキスト検索では見逃していた画像・動画内の証拠発見に活用しています。

料金はGemini APIでテキスト・画像・動画が100万トークンあたり0.25ドル、音声は0.50ドルです。入力上限はテキスト8192トークン、動画128秒、音声80秒、PDF6ページとなっています。LangChainやLlamaIndex、Weaviateなど主要フレームワークとの統合も完了しており、既存ワークフローへの組み込みが容易です。