Googleは「Google I/O 2025」にて、検索機能の大幅アップグレードとして新機能「Search Live」を発表しました。これは、スマートフォンのカメラに映した映像についてAIとリアルタイムに会話できる革新的な機能で、Google LensやProject Astraの技術を活かした、マルチモーダルAIの進化形です。
Search Liveとは?映像+会話で検索のあり方が変わる
これまで、Google Lensでは画像検索が中心でしたが、Search Liveでは以下のような新体験が可能になります:
- 数式をカメラに映して「この問題の解き方を教えて」と質問
- 商品のパッケージを撮影して「どこで買える?」「評価は?」と質問
- 風景を写しながら「この建物は何?」とリアルタイムで確認
これらの質問には即時に音声やテキストで回答が返り、さらに詳細を調べるためのリンクも表示されます。
利用方法:Google LensまたはAIモードからアクセス
Search Liveを使うには、以下の手順でアクセス可能です。
- Google Lensアプリまたは検索アプリを開く
- 「Liveアイコン」をタップ
- カメラを起動してリアルタイム映像を映す
- 質問を入力、または音声で話しかける
この機能は現在アメリカで先行提供中で、まもなくGoogle検索アプリやGoogleアプリに統合される予定です。
AIモードとは?より深い検索体験を提供
Search Liveは「AIモード」という新たな検索体験の一部でもあります。AIモードには以下のような機能があります:
1. クエリの自動分解と再構築
ユーザーの質問を自動で小テーマに分解し、関連性の高い情報を提供。
2. グラフによるデータ可視化
スポーツチームや株価などの比較を、リアルタイムのインタラクティブグラフとして表示。
3. パーソナライズされた提案
過去の検索履歴や予約情報を基に、あなたに最適なレストランや観光情報を提案。
4. バーチャル試着と自動購入
自撮り画像を使って洋服を試着し、Google Payを通じて直接購入まで可能に。
Googleの検索は“見る・話す・買う”へと進化
Googleによると、現在15億人以上がGoogle Lensを利用しており、Search Liveはその進化形として登場しました。単なるキーワード検索から、視覚と音声を駆使した“体験型検索”への転換が始まっています。
特に今後注目されるのは、以下の技術の融合です:
- Project Astra:リアルタイム視覚認識AI
- Gemini AI:文脈理解とデータ統合の中核
- AIモード:パーソナライズと対話力の強化
Googleはこれらを統合し、“スマホの中のAIアシスタント”としてSearchを再定義しています。
まとめ:検索の未来がここにある
Search Liveは、AIによる視覚×対話検索の新時代を象徴する機能です。これにより、ユーザーは検索をただの情報収集から、日常に密着した“知的体験”へと昇華させることができます。
- 勉強の補助
- 商品比較とショッピング
- 観光や旅行中の情報収集
あらゆる場面で活用可能なSearch LiveとAIモード。Google検索の未来が、いま手のひらの中に届こうとしています。


コメント