身の回りにあふれる様々なもの、情報、コンテンツ。これが一体何を意味するのか、どんなものなのかを調べる機会は少なくないはずだ。従来、視覚で得た情報をテキストで検索するといった流れを繰り返してきたかもしれないが、今後はそれもなくなりそうだ。
Googleが新たに発表した「Google Lens」は、AIを搭載した新機能でスマートフォンの内蔵カメラをユーザーの気になるものなどにかざすと、それが何かを教えてくれたり、予約サイトに導いてくれたりする。目の前にあるレストランは評価の高いレストランなのか、はたまたお気に入りのアーティストの広告が目の前に掲示されているからチケットを取りたい、目の前に書いてある外国語の文字は何を意味しているのかなど、即座に答えに導いてくれる。この新機能は、同社音声アシスタント「Google Assistant」に搭載される。使い方はレンズアイコンをタップし、あとは気になるものにかざすだけと非常にシンプル。
現状、「Google Assistant」は日本語に対応していないが、今年後半には同アシスタント搭載の「Google Home」が日本に登場するため、同時期での対応に期待が高まる。
With Google Lens, your smartphone camera won’t just see what you see, but will also understand what you see to help you take action. #io17 pic.twitter.com/viOmWFjqk1
— Google (@Google) May 17, 2017