グーグルは、AIを活用した新機能として、画像とテキストを組み合わせて検索できるマルチ検索機能の提供をモバイル端末で始めた。日本語を含むGoogleレンズ(保存した画像やカメラで写した画像をAI分析し、画像検索機能で検索結果を提示するアプリ)が利用可能なすべての国と言語で利用できる。
また、近くの場所に絞って検索できる機能を米国(英語)で追加。この機能を使うと、例えば食べ物の写真に、近くのお店と入力するだけで、ユーザーの近所の店の候補を検索することが可能となる。今後数か月かけて順次、日本を含むその他の国々でも公開する予定。
さらに、今後スマホのGoogle検索結果ページに表示される全ての画像でマルチ検索を利用できるようにする予定。例えば、「モダンなインテリアのアイデア」の検索で、目にとまったコーヒーテーブルの別の形(円形ではなく長方形など)を探したい場合、「長方形」というテキストを追加すれば、関連する画像を検索することができるようになる。
このほか、Googleレンズについて、カメラで捉えた画像やカメラロールの写真だけでなく、スマホ画面に表示される画像や動画も検索できるようにする計画。たとえば、旅行中の友人から受け取った動画メッセージの背景に写った建物を知りたいとき、Googleアシスタントで画面を検索すると、建物が識別され、そこをクリックすることで詳細を確認できる。Android のスマートフォンの Google レンズで「画面を検索」できる機能を、今後数ヶ月かけて Googleレンズの利用可能な国で順次公開していく。