Google、マルチモーダル埋め込みモデルGemini Embedding 2を公開
出典:VentureBeat
詳細を読む
Googleは2026年3月10日、新しい埋め込みモデル「Gemini Embedding 2」のパブリックプレビューを開始しました。従来のテキスト専用モデルとは異なり、テキスト・画像・動画・音声・文書を単一のベクトル空間にネイティブ統合する初の本格的マルチモーダル埋め込みモデルです。
最大の技術革新は、動画や音声をテキストに変換する中間処理が不要になった点です。従来は動画検索の際にまずテキストへの書き起こしが必要でしたが、本モデルは音声波形や動画の動きを直接理解します。これにより変換時の情報損失がなくなり、クロスモーダル検索が実現しました。
Matryoshka表現学習と呼ばれる技術により、3072次元のフルベクトルから768次元まで柔軟に圧縮でき、精度とストレージコストのバランスを企業が自ら調整できます。法務文書など高精度が求められる用途ではフル次元を、推薦エンジンなどでは圧縮版を使い分けることが可能です。
早期導入パートナーからは顕著な成果が報告されています。クリエイターエコノミー企業Sparkonomyはレイテンシを最大70%削減し、意味的類似度スコアをほぼ倍増させました。法律テック企業Everlawは訴訟証拠開示において、テキスト検索では見逃していた画像・動画内の証拠発見に活用しています。
料金はGemini APIでテキスト・画像・動画が100万トークンあたり0.25ドル、音声は0.50ドルです。入力上限はテキスト8192トークン、動画128秒、音声80秒、PDF6ページとなっています。LangChainやLlamaIndex、Weaviateなど主要フレームワークとの統合も完了しており、既存ワークフローへの組み込みが容易です。