La semana pasada tuvo lugar en Mountain View, la sede de Google en California, la conferencia anual de desarrolladores de la compañía, el Google I/O 2017, donde se anunciaron muchas novedades, y en concreto la nueva funcionalidad de Google Lens, que combina la cámara del smartphone con algoritmos de inteligencia artificial para el reconocimiento de objetos en tiempo real.
Así pues, gracias a esta sinergia, el sistema es capaz de reconocer todo tipo de objetos y lugares de los que extrae información para poder interactuar con el usuario del terminal móvil. Basta con, por ejemplo, alzar la cámara hacia el rótulo de sala de conciertos para que Google Lens reconozca el lugar y proponga acciones relacionadas, como la compra de tickets.
With Google Lens, your smartphone camera won’t just see what you see, but will also understand what you see to help you take action. #io17 pic.twitter.com/viOmWFjqk1
— Google (@Google) May 17, 2017
Para ello, la compañía estadounidense hace uso de sus algoritmos de machine learning o aprendizaje automático y que combina con la gran cantidad de datos que maneja el buscador. La idea subyacente es su integración con el asistente de Google para dotarlo de una mayor “inteligencia”, lo que le permite aportar una información extra al usuario gracias a la interactividad con el mundo real, lo que viene llamándose con el nombre de realidad aumentada.
Gracias a esta capacidad de “buscar en las fotos”, es posible también simplificar ciertas tareas, como conectarse a una red Wi-Fi simplemente apuntando a la etiqueta del router donde está escrita la clave: Google Lens la reconoce y traduce al instante, a la vez que el asistente utiliza estos datos para conectarse de forma transparente para el usuario. Asimismo, Google Lens puede trabajar con imágenes ya capturadas y almacenadas, gracias a la sincronización con Google Photos.
Más información en el blog de Google.