Las nuevas funciones de 'búsqueda múltiple' de Google apuntan hacia un futuro de gafas AR

Las nuevas funciones de ‘búsqueda múltiple’ de Google apuntan hacia un futuro de gafas AR

En abril, Google introdujo una nueva función de “búsqueda múltiple” que ofrecía una forma de buscar en la web usando texto e imágenes al mismo tiempo. Hoy, en la conferencia de desarrolladores I/O de Google, la compañía anunció una expansión de esta característica, llamada “Multisearch Near Me”. Esta adición, que llegará más adelante en 2022, permitirá a los usuarios de la aplicación de Google combinar una imagen o una captura de pantalla con el texto “cerca de mí” para ser dirigidos a opciones para minoristas locales o restaurantes que tendrían la ropa, los artículos para el hogar o la comida que usted estás en busca de. También está anunciando un próximo desarrollo para la búsqueda múltiple que parece estar construido con gafas AR en mente, ya que puede buscar visualmente en múltiples objetos en una escena en función de lo que está “viendo” actualmente a través del visor de la cámara de un teléfono inteligente.

Con la nueva consulta de búsqueda múltiple “cerca de mí”, podrá encontrar opciones locales relacionadas con su combinación actual de búsqueda visual y basada en texto. Por ejemplo, si estaba trabajando en un proyecto de bricolaje y encontró una pieza que necesitaba reemplazar, podría tomar una foto de la pieza con la cámara de su teléfono para identificarla y luego buscar una ferretería local que tenga un repuesto en existencia. .

Esto no es tan diferente de cómo ya funciona la búsqueda múltiple, explica Google: solo está agregando el componente local.

Créditos de imagen: Google

Originalmente, la idea con la búsqueda múltiple era permitir a los usuarios hacer preguntas sobre un objeto que tenían delante y refinar esos resultados por color, marca u otros atributos visuales. Hoy en día, la función funciona mejor con búsquedas de compras, ya que permite a los usuarios limitar las búsquedas de productos de una manera en la que las búsquedas web estándar basadas en texto a veces pueden tener problemas. Por ejemplo, un usuario podría tomar una foto de un par de zapatillas y luego agregar texto para pedir verlas en azul para que se le muestren solo esos zapatos en el color especificado. Podrían optar por visitar el sitio web de las zapatillas e inmediatamente comprarlas también. La expansión para incluir la opción “cerca de mí” ahora simplemente limita aún más los resultados para dirigir a los usuarios a un minorista local donde el producto dado está disponible.

En términos de ayudar a los usuarios a encontrar restaurantes locales, la función funciona de manera similar. En este caso, un usuario podría buscar en función de una foto que encontró en un blog de comida o en otro lugar de la web para saber cuál es el plato y qué restaurantes locales podrían tener la opción en su menú para cenar, recoger o entregar. . Aquí, la Búsqueda de Google combina la imagen con la intención de que esté buscando un restaurante cercano y escaneará millones de imágenes, reseñas y contribuciones de la comunidad a Google Maps para encontrar el lugar local.

La nueva función “cerca de mí” estará disponible globalmente en inglés y se extenderá a más idiomas con el tiempo, dice Google.

La adición más interesante a la búsqueda múltiple es la capacidad de buscar dentro de una escena. En el futuro, Google dice que los usuarios podrán mover su cámara para aprender sobre múltiples objetos dentro de esa escena más amplia.

Google sugiere que la función podría usarse para escanear los estantes en una librería y luego ver varias ideas útiles superpuestas frente a usted.

Créditos de imagen: Google

“Para que esto sea posible, reunimos no solo la visión artificial y la comprensión del lenguaje natural, sino que también los combinamos con el conocimiento de la web y la tecnología en el dispositivo”, señaló Nick Bell, director sénior de Búsqueda de Google. “Entonces, las posibilidades y las capacidades de esto van a ser enormes y significativas”, señaló.

La compañía, que llegó temprano al mercado AR con su lanzamiento de Google Glass, no confirmó que tuviera ningún tipo de dispositivo nuevo tipo gafas AR en proceso, pero insinuó la posibilidad.

“Con los sistemas de inteligencia artificial ahora, lo que es posible hoy, y será posible en los próximos años, simplemente abre tantas oportunidades”, dijo Bell. Además de la búsqueda por voz, el escritorio y la búsqueda móvil, la compañía cree que la búsqueda visual también será una parte más importante del futuro, señaló.

Créditos de imagen: Google

“Hay 8 mil millones de búsquedas visuales en Google con Lens cada mes ahora y ese número es tres veces el tamaño que tenía hace solo un año”, continuó Bell. “Lo que definitivamente estamos viendo de la gente es que el apetito y el deseo de buscar visualmente están ahí. Y lo que estamos tratando de hacer ahora es apoyarnos en los casos de uso e identificar dónde es más útil”, dijo. “Creo que cuando pensamos en el futuro de la búsqueda, la búsqueda visual es definitivamente una parte clave de eso”.

La empresa, por supuesto, es según se informa trabajando en un proyecto secreto, cuyo nombre en código es Proyecto Iris, para construir un nuevo auricular AR con una fecha de lanzamiento proyectada para 2024. Es fácil imaginar no solo cómo esta capacidad de escaneo de escenas podría ejecutarse en un dispositivo de este tipo, sino también cómo cualquier tipo de función de búsqueda de imagen más texto (¡o voz!) Podría usarse en un auricular AR. Imagínese nuevamente mirando el par de zapatillas que le gustaron, por ejemplo, y luego pidiéndole a un dispositivo que navegue a la tienda más cercana donde podría realizar la compra.

“Mirando más allá, esta tecnología podría usarse más allá de las necesidades cotidianas para ayudar a abordar los desafíos sociales, como apoyar a los conservacionistas en la identificación de especies de plantas que necesitan protección, o ayudar a los trabajadores de socorro en casos de desastre a buscar donaciones rápidamente en tiempos de necesidad”, sugirió Prabhakar Raghavan, Google Search SVP, hablando en el escenario en Google I/O.

Desafortunadamente, Google no ofreció un marco de tiempo sobre cuándo esperaba poner la capacidad de escaneo de escenas en manos de los usuarios, ya que la función aún está “en desarrollo”.


Source link