Ya es bastante difícil hablar de tus sentimientos con una persona; Jo Aggarwal, fundador y director ejecutivo de Wysa, espera que le resulte más fácil confiar en un robot. O, para decirlo más específicamente, inteligencia artificial “emocionalmente inteligente”.
Wysa es una aplicación de salud mental impulsada por inteligencia artificial diseñada por Touchkin eServices, la compañía de Aggarwal que actualmente tiene oficinas centrales en Bangalore, Boston y Londres. Wysa es algo así como un chatbot que puede responder con palabras de afirmación o guiar a un usuario a través de una de las 150 técnicas terapéuticas diferentes.
Wysa es la segunda empresa de Aggarwal. La primera fue una empresa de cuidado de ancianos que no logró encontrar un ajuste en el mercado, dice ella. Aggarwal se encontró cayendo en una profunda depresión, de la cual, dice, nació la idea de Wysa en 2016.
En marzo, Wysa se convirtió en una de las 17 aplicaciones del Programa de inversión del Asistente de Google, y en mayo cerró un Serie A ronda de financiación de $ 5,5 millones liderada por W Health Ventures de Boston, el Programa de Inversión Asistente de Google, pi Ventures y Kae Capital.
Wysa ha recaudado un total de $ 9 millones en fondos, dice Aggarwal, y la compañía tiene 60 empleados a tiempo completo y alrededor de tres millones de usuarios.
El objetivo final, dice, no es diagnosticar afecciones de salud mental. Wysa está dirigido principalmente a personas que solo quieren desahogarse. La mayoría de los usuarios de Wysa están ahí para mejorar su sueño, ansiedad o relaciones, dice ella.
“De los 3 millones de personas que usan Wysa, encontramos que solo alrededor del 10% realmente necesita un diagnóstico médico”, dice Aggarwal. Si las conversaciones de un usuario con Wysa se equiparan con puntuaciones altas en los cuestionarios tradicionales de depresión como el PHQ-9 o el cuestionario de trastorno de ansiedad GAD-7, Wysa sugerirá hablar con un terapeuta humano.
Naturalmente, no es necesario tener un diagnóstico clínico de salud mental para beneficiarse de la terapia.
Wysa no pretende ser un reemplazo, dice Aggarwal (queda por ver si los usuarios lo ven como un reemplazo), sino una herramienta adicional con la que un usuario puede interactuar a diario.
“El sesenta por ciento de las personas que vienen a hablar con Wysa necesitan sentirse escuchadas y validadas, pero si se les dan técnicas de autoayuda, pueden trabajar en ellas y sentirse mejor”, continúa Aggarwal.
El enfoque de Wysa se ha refinado a través de conversaciones con los usuarios y a través de la información de los terapeutas, dice Aggarwal.
Por ejemplo, mientras conversa con un usuario, Wysa primero categorizará sus declaraciones y luego asignará un tipo de terapia, como terapia cognitivo conductual o terapia de aceptación y compromiso, en función de esas respuestas. Luego seleccionaría una línea de preguntas o técnica terapéutica escrita con anticipación por un terapeuta y comenzaría a conversar con el usuario.
Wysa, dice Aggarwal, ha estado recogiendo sus propios conocimientos de más de 100 millones de conversaciones que se han desarrollado de esta manera.
“Tomemos, por ejemplo, una situación en la que estás enojado con otra persona. Originalmente, nuestros terapeutas idearían una técnica llamada técnica de la silla vacía en la que intentas mirarla desde la perspectiva de la otra persona. Descubrimos que cuando una persona se sentía impotente o había problemas de confianza, como los adolescentes y los padres, las técnicas que estaban dando los terapeutas no funcionaban realmente ”, dice.
“Hay 10,000 personas que enfrentan problemas de confianza y que en realidad se niegan a hacer el ejercicio de la silla vacía. Entonces tenemos que encontrar otra forma de ayudarlos. Estos conocimientos han construido a Wysa “.
Aunque Wysa se ha perfeccionado en el campo, las instituciones de investigación han desempeñado un papel en el desarrollo continuo de Wysa. Los pediatras de la Universidad de Cincinnati ayudaron desarrollar un módulo dirigido específicamente a la ansiedad COVID-19. También hay estudios en curso sobre la capacidad de Wysa para ayudar a las personas a sobrellevar las consecuencias para la salud mental del dolor crónico, la artritis y la diabetes en la Universidad de Washington en St. Louis y la Universidad de New Brunswick.
Aún así, Wysa ha tenido varias pruebas en el mundo real. En 2020, el gobierno de Singapur obtuvo la licencia de Wysa y proporcionó el servicio de forma gratuita para ayudar a hacer frente a las consecuencias emocionales de la pandemia de coronavirus. Wysa también se ofrece a través de la compañía de seguros de salud Aetna. como suplemento al Programa de asistencia para empleados de Aetna.
La mayor preocupación sobre las aplicaciones de salud mental, naturalmente, es que pueden desencadenar accidentalmente un incidente o confundir los signos de autolesión. Para abordar esto, el Servicio Nacional de Salud (NHS) del Reino Unido ofrece estándares de cumplimiento específicos. Wysa cumple con el NHS ‘ Estándar DCB0129 para seguridad clínica, la primera aplicación de salud mental basada en IA para ganar la distinción.
Para cumplir con esas pautas, Wysa nombró a un oficial de seguridad clínica y se le pidió que creara “rutas de escalada” para las personas que muestran signos de autolesión.
Wysa, dice Aggarwal, también está diseñado para marcar respuestas a autolesiones, abuso, pensamientos suicidas o traumas. Si las respuestas de un usuario caen en esas categorías, Wysa le pedirá que llame a una línea de crisis.
En los EE. UU., La aplicación Wysa que cualquiera puede descargar, dice Aggarwal, se adapta al Definición de la FDA de una aplicación de bienestar general o un “dispositivo de bajo riesgo”. Eso es relevante porque, durante la pandemia, la FDA ha creó una guía para acelerar la distribución de estas aplicaciones.
Aún así, es posible que Wysa no categorice perfectamente la respuesta de cada persona. A 2018 BBC investigación, por ejemplo, señaló que la aplicación no pareció apreciar la gravedad de un encuentro sexual propuesto por menores de edad. Wysa respondió actualizando la aplicación para manejar más casos de sexo coercitivo.
Aggarwal también señala que Wysa contiene una lista manual de oraciones, que a menudo contienen jerga, que saben que la IA no detectará ni clasificará con precisión como dañinas por sí sola. Estos se actualizan manualmente para garantizar que Wysa responda adecuadamente. “Nuestra regla es que [the response] puede ser 80% apropiado, pero 0% desencadenante ”, dice.
En el futuro inmediato, Aggarwal dice que el objetivo es convertirse en un servicio de pila completa. En lugar de tener que derivar a los pacientes que reciben un diagnóstico a los programas de asistentes para empleados (como podría hacerlo la asociación de Aetna) o terapeutas externos, Wysa tiene como objetivo construir su propia red de proveedores de salud mental.
En el lado tecnológico, están planeando expandirse al español y comenzarán a investigar un sistema basado en voz basado en la guía del Fondo de Inversión Asistente de Google.
Source link