Google、AI音声・カメラ検索「Search Live」を米国で正式公開
詳細を読む
Googleは2025年9月24日、米国で新機能「Search Live」を正式に公開しました。AIと音声で対話しながらスマートフォンのカメラ映像を共有し、リアルタイムな情報検索を可能にします。これまで試験提供でしたが、今後はGoogleアプリ(Android/iOS)から誰でも利用でき、より直感的な検索体験を提供します。
「Search Live」の最大の特徴は、音声と視覚情報を組み合わせた対話型検索です。ユーザーはGoogleアプリやレンズから「Live」アイコンをタップして起動。目の前の物について声で質問すると、AIがカメラ映像を認識し即座に応答します。関連ウェブリンクも提示し、深い情報収集を支援します。
具体的な活用例として、旅行先で見かけた建造物についてカメラを向けて質問したり、新しい趣味である抹茶の道具の使い方を尋ねたりできます。ハンズフリーで対話できるため、作業をしながらでも手軽に情報を得られます。文字入力が不要になることで、検索のハードルが大きく下がると期待されます。
ビジネスや教育の現場でも応用が期待されます。例えば、複雑なAV機器の配線で困った際、カメラで写しながら質問すればAIが視覚的に判断して指示します。子供の科学実験を一緒に見ながら、化学反応の原理をAIに解説させるなど、学習支援ツールとしても活用できるでしょう。
「Search Live」の一般公開は、検索がテキスト入力から、より五感に近い体験へと進化していることを示しています。リアルタイムの視覚・音声情報を活用するAIアシスタントは、様々なサービスのUIに影響を与える可能性があります。企業は自社サービスとの連携を模索する必要があるでしょう。