Plasticity quiere ayudar a que los chatbots parezcan menos robóticos

Plasticity quiere ayudar a que los chatbots parezcan menos robóticos

by

in

Combinador Y respaldado Plasticidad está abordando el problema de hacer que los sistemas de software comprendan mejor el texto, utilizando modelos de aprendizaje profundo entrenados para comprender lo que están leyendo en los artículos de Wikipedia y ofreciendo una API para que los desarrolladores mejoren sus propias interfaces.

Específicamente, están ofreciendo dos API para que los desarrolladores construyan “interfaces conversacionales más sólidas”, como lo expresaron, con el objetivo de convertirse en una “solución centralizada” para el procesamiento del lenguaje natural (NLP). Sus API se cambiarán de beta privada a pública el lunes.

“Una cosa para la que creemos que esto es realmente útil es para las interfaces conversacionales en las que desea integrar el conocimiento del mundo real”, dice el cofundador Alex Sands. “Creemos que también es realmente útil cuando desea proporcionar respuestas instantáneas en su aplicación, ya sea en todo Internet o en un corpus personalizado”.

Un ejemplo podría ser los motores de búsqueda que compiten con Google y no tienen su propia tecnología de respuesta instantánea. “[They] podría usar algo como esto. Estamos en conversaciones con algunos de ellos”, señala Sands.

“La otra aplicación son las interfaces conversacionales que desean una nueva pila de NLP que les brinde mucha más información de la que les brindaría un paquete académico como Stanford CoreNLP en la actualidad”, agrega.

Hace unos años, los fundadores trabajaron en un proyecto de pirateo que amplió los poderes del asistente de voz AI de Apple, Siri, al agregar soporte para comandos personalizados, como reproducir una pista de Spotify o marcar la temperatura a través de un dispositivo Nest. Esto fue antes de que Apple abriera Siri a aplicaciones de terceros, por lo que enrutaban los comandos de voz a través de un proxy y afirmaban haber creado básicamente “la primera tienda de aplicaciones para comandos de voz”.

La experiencia les enseñó que “la PNL en general no es sólida” para manejar comandos y consultas más complejos, dice otro cofundador, Ajay Patel.

“El otro problema fue que muchas de las herramientas de procesamiento de lenguaje natural que existen realmente adoptan un enfoque simplista para comprender lo que dice un usuario”, agrega. “La forma más simple de explicarlo es que están buscando palabras clave para averiguar qué está preguntando un usuario”.

La plasticidad está adoptando un enfoque diferente frente a estos sistemas de PNL basados ​​en palabras clave; construir un sistema que comprenda la semántica de una oración para que pueda realizar un desglose lingüístico: “para descubrir todas las relaciones y entidades en una oración”.

Luego pueden entregar esa información a los desarrolladores para que puedan construir “interfaces conversacionales más sólidas a su alrededor”, como lo expresa Patel, como, por ejemplo, un chatbot que es más conversacional y capaz, dado que puede brindar respuestas que encontró en línea.

“Hoy puedes hacerle preguntas a Siri basadas en hechos, como quién dirigió una película o quién una canción en particular. Pero no puedes hacerle una pregunta más útil, como ¿cuándo son las vacaciones de primavera en Stanford? él añade. “No puede tomar una oración de Internet y luego encontrar la respuesta directa en esa oración y luego devolvérsela al usuario”.

En cambio, Siri generalmente realiza una búsqueda en Google y entrega esos resultados al usuario, lo que deja a los usuarios hacer el trabajo de campo de la última milla para extraer una respuesta real.

La promesa de Plasticity es eliminar ese último paso devolviendo la respuesta correcta directamente al usuario.

“Nuestra tecnología central utiliza el aprendizaje profundo para determinar el nivel base de las etiquetas NLP, por lo que son cosas como partes del discurso, árbol de dependencia de sintaxis. Así que usamos el aprendizaje automático en la base para resolverlo, y usamos TensorFlow y el módulo SyntaxNet de Google”, dice Patel. “Y además de eso, hemos creado un código C++ personalizado que básicamente funciona con mucha más precisión y mucho más rápido que muchos de los competidores”.

Por supuesto, si Internet es su oráculo, entonces hay un alcance ilimitado para devolver respuestas no veraces sino falsedades completas, noticias falsas y otras opiniones sesgadas y prejuiciosas, como ya hemos visto que hace Google Home. UPS. Entonces, ¿cómo evita Plasticity que su tecnología caiga en una trampa similar y asegura la precisión en las respuestas que su API puede ayudar a proporcionar?

“Lo que hacemos en este momento es ejecutarlo solo en Wikipedia”, dice Sands sobre esto. “Entonces, el plan a partir de ahí es expandirse lentamente mientras se mantiene esa precisión de la que estás hablando”.

La API lleva más de 1,5 años en desarrollo en este punto, y afirman “mucha mayor precisión y mucha mayor velocidad” en el análisis de oraciones que IBM Watson, por ejemplo.

Inicialmente, Patel dice que se centraron en áreas que los sistemas NLP existentes basados ​​en palabras clave manejamos bien, como las listas, y luego continuaron construyendo la complejidad para manejar otros “casos de borde lingüístico”.

Si bien nombran a Google como su principal competidor en este punto, dado el objetivo declarado de la compañía de organizar la información del mundo, construir sistemas que puedan comprender el texto es una clara necesidad para la misión de Mountain View, aun así consideran que hay espacio para que otro jugador de NLP ofrezca servicios similares al mercado más amplio.

“[Google has] esforzarse mucho en comprender el texto en Internet para hacer sus preguntas y respuestas instantáneas… Pero realmente creemos que todavía hay un espacio en el mercado para una solución para todos los demás, que no son Google, que no están poniendo cientos de millones de dólares de inversión en aprendizaje automático, y realmente creemos que no tienen ambición de convertirse en líderes en PNL. Por ejemplo, Apple en realidad subcontrata sus preguntas y respuestas en Siri a Wolfram Alpha.

“Así que creemos que hay un lugar importante en el mercado para ser la solución de procesamiento de lenguaje natural y la solución de gráficos de conocimiento para todos los demás productos de inteligencia artificial que existen”.

Y aunque su primer enfoque es construir tecnología NLP que pueda comprender la estructura semántica y realizar un análisis lingüístico granular, Patel dice que también pueden expandirse a otras áreas, como la síntesis de programas, para agregar más capacidades a la API en el futuro.

En cuanto a la financiación, todavía están en el proceso de cerrar su semilla, pero han recibido financiación de múltiples inversores en este momento, incluidos Dorm Room Fund de First Round Capital y Rough Draft Ventures de General Catalyst. Agregarán que buscarán más inversiones después del día de demostración de YC.


Source link