Un sitio de salud mental que utiliza un chatbot con IA muestra por qué necesitamos regulaciones más estrictas

Un sitio de salud mental que utiliza un chatbot con IA muestra por qué necesitamos regulaciones más estrictas

Koko, proveedor de apoyo a la salud mental, fue criticado recientemente por responder a los mensajes de algunos usuarios con inteligencia artificial, lo que subraya la necesidad de regulaciones estrictas. La IA sigue desempeñando un papel cada vez más importante en la vida diaria, y grandes marcas como Apple exploran las posibilidades de la tecnología. Sin embargo, existen preocupaciones sobre cómo el mayor uso de la IA para tareas que los humanos suelen realizar provocará la pérdida de empleos o dañará industrias creativas enteras. Es por eso que los pedidos de regulaciones aumentaron el año pasado, y el gobierno de EE. UU. ya está desarrollando políticas para promover el uso seguro de modelos de IA. Koko, un servicio de apoyo a la salud mental, dirige una red de voluntarios anónimos que ofrecen apoyo emocional a quienes lo necesitan. , desde buscar consejos sobre relaciones hasta querer que le digan algunas palabras amables. La suposición es que un usuario está interactuando con otra persona, pero Noticias NBC descubrió que la plataforma utilizaba GPT-3, el conocido chatbot de Open AI, para redactar respuestas. en un Gorjeo En el hilo, el cofundador de Koko, Rob Morris, dijo que esto era para optimizar los tiempos de respuesta y aumentar la eficiencia operativa. Añadió que se alentó al personal voluntario de Koko a editar las respuestas formuladas. Sin embargo, Koko eliminó el chatbot tras la indignación pública.

La política de IA es más necesaria que nunca

“/>

Las herramientas basadas en IA están destinadas a ayudar a reducir costos y aumentar la productividad, pero el creciente potencial de uso indebido es preocupante. Las intenciones de Koko parecen razonables si el objetivo es ayudar a más personas. Sin embargo, se puede decir que utilizar un chatbot sin informar a quienes confían lo suficiente en la plataforma como para compartir sus problemas no es ético. A pesar del beneficio potencial de una tecnología aparentemente eficiente, la IA no puede procesar emociones. El chatbot puede generar respuestas más rápidas, pero a las respuestas les falta la amabilidad y la simpatía que una persona puede brindar, que es el objetivo del servicio de salud mental.

Morris acepta que una respuesta generada por IA no posee el mismo contexto emocional que encontraría en un mensaje compuesto por un humano. Él dijo, “Una vez que la gente supo que los mensajes habían sido cocreados por una máquina, no funcionó. La empatía simulada se siente extraña, vacía.“Es posible que algún día las máquinas sean capaces de procesar las emociones humanas. Pero hasta entonces, las empresas que planean automatizar la prestación de sus servicios deben adherirse a políticas estrictas que guíen la tecnología para proteger a los consumidores de los peligros de una mayor automatización.

A medida que se descubren más casos de uso, las autoridades deben ajustar las políticas para adaptarse a nuevos riesgos. Las marcas que utilizan modelos de IA deben rendir cuentas de sus acciones. Especialmente cuando se trata de no informar a los usuarios sobre el uso de la IA para servicios que tradicionalmente las personas gestionan. El potencial para la integración de la IA es inmenso. Y dado que la inteligencia artificial puede imitar la interacción sin que nadie se dé cuenta, existe una clara necesidad de reglas y leyes bien definidas para evitar subterfugios.

La legislación sobre IA está en marcha en varios países y debería ser una prioridad. El gobierno de EE. UU. inició esfuerzos para regular la IA en 2020 con la Ley de Iniciativa Nacional de Inteligencia Artificial. Si bien aún queda mucho por hacer, AI La política debería ocupar un lugar central pronto.

Fuentes: NBC News, Twitter/@RobertRMorris




Source link