Google、初のマルチモーダル埋め込みモデル「Gemini Embedding 2」公開
出典:Google公式
詳細を読む
Googleは2026年3月10日、Geminiアーキテクチャを基盤とした初の完全マルチモーダル埋め込みモデル「Gemini Embedding 2」をGemini APIおよびVertex AIでパブリックプレビューとして公開した。
同モデルはテキスト・画像・動画・音声・PDFドキュメントを単一の統一埋め込み空間にマッピングする。テキストは最大8192トークン、画像は1リクエスト最大6枚、動画は最大120秒に対応しており、RAGや意味検索、感情分析、データクラスタリングなど幅広いユースケースを簡素化する。
柔軟な出力次元を実現するMatryoshka Representation Learning(MRL)技術を採用しており、デフォルト3072次元から1536・768次元へと動的に削減できる。これにより開発者はパフォーマンスとストレージコストのバランスを最適化できる。
早期アクセスパートナーからは顕著な成果が報告されている。Paramount Skydanceは動画資産検索のRecall@1を85.3%に向上させ、Sparkonomy社はLLM推論を排除することでレイテンシを最大70%削減、テキスト・画像間の意味的類似度スコアを0.4から0.8へほぼ2倍に改善した。
同モデルはLangChain・LlamaIndex・Haystack・Weaviate・Qdrant・ChromaDB・Vector Searchなど主要なフレームワークおよびベクターデータベースと統合可能であり、既存ワークフローへの最小限の変更での導入が可能だ。