Ícono del sitio La Neta Neta

Observant, respaldado por YC, utiliza los sensores de profundidad infrarrojos del iPhone para analizar las emociones del usuario

Observant, respaldado por YC, utiliza los sensores de profundidad infrarrojos del iPhone para analizar las emociones del usuario

Observante ha encontrado una nueva forma de utilizar los elegantes sensores de profundidad infrarrojos incluidos en el iPhone X, XS y XR: analizar la expresión facial de las personas para comprender cómo responden a un producto o contenido.

Observant formó parte del grupo de startups de invierno en el acelerador Y Combinator, pero todavía estaba en modo sigiloso en el Demo Day. Fue creado por la misma empresa detrás del producto de informes de errores. Buglife, y el CEO Dave Schukin dijo que su equipo lo creó porque querían encontrar mejores formas de capturar las reacciones de los usuarios.

Hemos escrito sobre otras nuevas empresas que intentan hacer algo similar utilizando cámaras web y seguimiento ocular, pero Schukin (quien cofundó la empresa con el CTO Daniel DeCovnick) argumentó que esos enfoques son menos precisos que los de Observant; en particular, argumentó que no capture “microexpresiones” más sutiles y no les va tan bien en entornos con poca luz.

Por el contrario, dijo que los sensores de profundidad infrarrojos pueden mapear su rostro con altos niveles de detalle independientemente de la iluminación, y Observant también ha creado una tecnología de aprendizaje profundo para traducir los datos faciales en emociones en tiempo real.

Observant ha creado un SDK que se puede instalar en cualquier aplicación de iOS y puede proporcionar un flujo completo de análisis emocional en tiempo real o instantáneas individuales de las respuestas de los usuarios vinculadas a eventos específicos dentro de la aplicación. Actualmente, el producto es solo por invitación, pero Schukin dijo que ya está disponible en algunas aplicaciones minoristas y de comercio electrónico, y también se está utilizando en pruebas de grupos focales.

Por supuesto, la idea de que su iPhone capture todas sus expresiones faciales puede sonar un poco espeluznante, por lo que enfatizó que a medida que Observant atrae a nuevos clientes, está trabajando con ellos para asegurarse de que cuando se recopilen los datos, “los usuarios tengan claro cómo es siendo utilizado.” Además, todo el análisis ocurre realmente en el dispositivo de los usuarios, por lo que no se cargan imágenes faciales o datos biométricos.

Finalmente, Schukin sugirió que la tecnología podría aplicarse de manera más amplia, ya sea ayudando a las empresas a brindar mejores recomendaciones, introduciendo más “inteligencia emocional” a sus chatbots o incluso detectando la conducción con sueño.

En cuanto a si Observant puede lograr esos objetivos cuando solo funciona en tres teléfonos, Schukin dijo: “Cuando comenzamos a trabajar en esto hace casi un año, el iPhone X era el único iPhone [with these depth sensors]. Nuestro pensamiento en ese momento era, sabemos cómo funciona Apple, sabemos cómo esta tecnología se propaga con el tiempo, así que vamos a apostar a que eventualmente estos sensores de profundidad estarán en todos los iPhone y todos los iPad, y lo estarán. emulado y replicado en Android “.

Entonces, aunque es demasiado pronto para decir si la apuesta de Observant dará sus frutos, Schukin señaló el hecho de que estos sensores se han expandido de uno a tres modelos de iPhone como una señal de que las cosas se están moviendo en la dirección correcta.


Source link
Salir de la versión móvil