Snapchat potencia su plataforma AR con búsqueda por voz, Lentes Locales y SnapML

Snapchat potencia su plataforma AR con búsqueda por voz, Lentes Locales y SnapML

Los sueños de realidad aumentada de Snapchat podrían estar empezando a parecer un poco más realistas.

La compañía ha estado mejorando sutilmente sus Lentes con tecnología AR cada año, mejorando las ventajas y desventajas técnicas y fortaleciendo su plataforma de desarrollo. El resultado es que hoy en día, más de 170 millones de personas, más de las tres cuartas partes de los usuarios activos diarios de Snap, acceden diariamente a las funciones de realidad aumentada de la aplicación, dice la compañía. Hace dos años, Snap compartió que los creadores habían diseñado más de 100 000 lentes en la plataforma; ahora Snap dice que se han creado más de 1 millón de lentes.

Los filtros tontos están atrayendo a los usuarios a la aplicación y la compañía está construyendo lentamente una plataforma más interconectada en torno a la realidad aumentada que comienza a parecer cada vez más prometedora.

Hoy, en el evento anual para desarrolladores de Snap, la compañía anunció una serie de actualizaciones, que incluyen la búsqueda por voz de Lens, una actualización del modelo de aprendizaje automático de Lens Studio y un sistema AR específico para la geografía que convertirá los Snaps públicos en datos espaciales que la empresa puede usar para mapear tridimensionalmente grandes espacios físicos.

Un Alexa para AR

El carrusel de lentes de Snapchat fue suficiente para pasar de un filtro a otro cuando solo había un par de docenas, pero con un millón de lentes y contando, siempre estuvo claro que las ambiciones de realidad aumentada de Snapchat estaban sufriendo debido a problemas con la capacidad de descubrimiento.

Snap se está preparando para implementar un nuevo método de clasificación a través de Lenses, a través de la voz, y si pueden lograrlo, la compañía tendrá un camino claro para la transición de AR solo para entretenimiento a una plataforma basada en la utilidad. En su formato actual, la nueva búsqueda por voz de la aplicación permitirá a los usuarios de Snapchat pedirle a la aplicación que los ayude a encontrar filtros que les permitan hacer algo único.

Si bien es fácil ver a dónde podría llegar una función como esta si los usuarios se unieran a ella, los ejemplos destacados en una rueda de prensa previa no indicaban exactamente que Snapchat quiere que esto se sienta como un asistente digital desde el principio:

“Oye Snapchat, ponme el pelo rosa” “¡Oye Snapchat, dame un abrazo! “Hola Snapchat, llévame a la luna”

Será interesante ver si los usuarios acceden a esta funcionalidad desde el principio cuando las capacidades de Lenses están por todas partes, pero simplemente construir esta infraestructura en la aplicación parece poderoso, especialmente cuando observa las asociaciones de la empresa para la búsqueda visual. con Amazon y búsqueda de audio con Shazam dentro de su función Scan. No es difícil imaginar pedirle a la aplicación que te permita probarte el maquillaje de una compañía específica o pedirle que te muestre cómo se vería un televisor de 55″ en tu pared.

La compañía anunció nuevas asociaciones para su búsqueda visual, asociándose con PlantSnap para ayudar a los usuarios de Snapchat a identificar plantas y árboles, Dog Scanner para permitir que los usuarios de Snap apunten su cámara a un perro y determinen su raza, y más tarde este año con Yuka para ayudar a dar calificaciones nutricionales. en los alimentos después de escanear la etiqueta de un artículo.

“Hoy, la realidad aumentada está cambiando la forma en que hablamos con nuestros amigos”, dijo el cofundador y director de tecnología de Snap, Bobby Murphy, en una rueda de prensa. “Pero en el futuro, lo usaremos para ver el mundo de formas completamente nuevas”.

te permite traer tu pripia bedida alcohólica[AI]

Snap quiere que los desarrolladores traigan sus propios modelos de redes neuronales a su plataforma para permitir una clase de lentes más creativa y con un uso intensivo del aprendizaje automático. SnapML permite a los usuarios traer modelos entrenados y permitir que los usuarios aumenten su entorno, creando filtros visuales que transforman escenas de formas más sofisticadas.

Los conjuntos de datos que los creadores suben a Lens Studio permitirán que sus Lenses vean con un nuevo par de ojos y busquen nuevos objetos. Snap se asocia con la puesta en marcha de AR Quiero para dar a los desarrolladores acceso a su tecnología de seguimiento de pies para habilitar lentes que permitan a los usuarios probarse zapatillas virtualmente. Otra alianza con Prisma permite que la cámara Lens filtre el mundo al estilo de los estilos artísticos familiares.

Snap espera que al unir la comunidad de aprendizaje automático y la comunidad creativa, los usuarios podrán obtener acceso a algo completamente nuevo. “Esperamos ver un tipo de lentes completamente nuevo que nunca antes habíamos visto”, dijo a TechCrunch el ejecutivo de Snap AR, Eitan Pilipski.

Snapchat comienza a mapear el mundo

Uno de los grandes anuncios del año pasado de Snap en el frente AR fue una característica llamada Hitosque permitió a los desarrolladores crear Lentes más sofisticados que aprovecharon los modelos geométricos de grandes estructuras emblemáticas populares como la Torre Eiffel en París o el Edificio Flatiron en Nueva York para crear lentes geográficamente específicas que jugaran con el mundo real.

La tecnología fue relativamente fácil de implementar, aunque solo fuera porque las estructuras que eligieron eran muy ubicuas y los archivos 3D de sus exteriores estaban fácilmente disponibles. El próximo esfuerzo de AR de la compañía es un poco más ambicioso. Una nueva función llamada Lentes locales permitirá a los desarrolladores de Snapchat crear lentes específicos de la geografía que interactúen con una muestra más amplia de ubicaciones físicas.

“[W]Estamos yendo un paso más allá, al habilitar la realidad aumentada compartida y persistente en áreas mucho más grandes, para que pueda experimentar AR con sus amigos, al mismo tiempo, en cuadras enteras de la ciudad”, dijo Murphy.

¿Cómo obtendrá Snapchat todos estos datos 3D en primer lugar? Están analizando Snaps públicos que los usuarios compartieron con la fuente pública Our Story de la compañía, extrayendo datos visuales sobre los edificios y estructuras en las fotos y usándolos para crear mapas 3D de ubicaciones más precisos.

Las empresas que están interesadas en la realidad aumentada compiten cada vez más para recopilar datos en 3D. El mes pasado, el fabricante de Pokémon GO, Niantic, anunció que iban a comenzar a recopilar datos 3D de los usuarios de forma voluntaria.


Source link