El odio generado por la IA está aumentando: 3 cosas que los líderes deben considerar antes de adoptar esta nueva tecnología

El odio generado por la IA está aumentando: 3 cosas que los líderes deben considerar antes de adoptar esta nueva tecnología

Jonathan A. Greenblatt Colaborador

Cuando escuche la frase “inteligencia artificial”, puede ser tentador imaginar los tipos de máquinas inteligentes que son un pilar de la ciencia ficción o extensiones de los tipos de tecnofobia apocalíptica que han fascinado a la humanidad desde el monstruo del Dr. Frankenstein.

Pero los tipos de IA que se están integrando rápidamente en las empresas de todo el mundo no son de esta variedad: son tecnologías muy reales que tienen un impacto real en las personas reales.

Si bien la IA ya ha estado presente en entornos comerciales durante años, el avance de los productos de IA generativa como ChatGPT, ChatSonic, Jasper AI y otros aumentará drásticamente la facilidad de uso para la persona promedio. Como resultado, el público estadounidense está profundamente preocupado por el potencial de abuso de estas tecnologías. Un reciente Encuesta ADL encontrada que al 84% de los estadounidenses les preocupa que la IA generativa aumente la difusión de información errónea y odio.

Los líderes que consideren adoptar esta tecnología deben hacerse preguntas difíciles sobre cómo puede dar forma al futuro, tanto para bien como para mal, a medida que ingresamos a esta nueva frontera. Aquí hay tres cosas que espero que todos los líderes consideren al integrar herramientas de IA generativa en organizaciones y lugares de trabajo.

Haga de la confianza y la seguridad una prioridad máxima

Si bien las redes sociales se utilizan para lidiar con la moderación de contenido, la IA generativa se está introduciendo en lugares de trabajo que no tienen experiencia previa en el manejo de estos problemas, como la atención médica y las finanzas. Es posible que muchas industrias pronto se enfrenten repentinamente a nuevos desafíos difíciles a medida que adoptan estas tecnologías. Si usted es una empresa de atención médica cuyo chatbot impulsado por IA de primera línea de repente se muestra grosero o incluso odioso con un paciente, ¿cómo manejará eso?

A pesar de todo su poder y potencial, la IA generativa hace que sea fácil, rápido y accesible para los malos actores producir contenido dañino.

Durante décadas, las plataformas de redes sociales han desarrollado una nueva disciplina, la confianza y la seguridad, para tratar de solucionar los problemas espinosos asociados con el contenido generado por los usuarios. No es así con otras industrias.

Por esa razón, las empresas deberán traer expertos en confianza y seguridad para hablar sobre su implementación. Tendrán que desarrollar experiencia y pensar en formas en que se puede abusar de estas herramientas. Y tendrán que invertir en personal que sea responsable de abordar los abusos para que no los tomen con los pies planos cuando los malos abusan de estas herramientas.

Establezca barreras estrictas e insista en la transparencia

Especialmente en entornos laborales o educativos, es crucial que las plataformas de IA tengan medidas de seguridad adecuadas para evitar la generación de contenido de odio o de acoso.

Si bien son herramientas increíblemente útiles, las plataformas de IA no son 100 % infalibles. En unos minutos, por ejemplo, los evaluadores de ADL utilizaron recientemente la aplicación Expedia, con su nueva funcionalidad ChatGPT, para crear un itinerario de famosos pogromos antijudíos en Europa y una lista de tiendas de artículos de arte cercanas donde se podía comprar pintura en aerosol, aparentemente participar en vandalismo contra esos sitios.

Si bien hemos visto que algunas IA generativas mejoran su manejo de preguntas que pueden generar respuestas antisemitas y otras de odio, hemos visto otras faltar al garantizar que no contribuirán a la difusión del odio, el acoso, las teorías de la conspiración y otro tipo de contenido dañino.

Antes de adoptar ampliamente la IA, los líderes deben formular preguntas críticas, como: ¿Qué tipo de pruebas se están realizando para garantizar que estos productos no estén abiertos al abuso? ¿Qué conjuntos de datos se están utilizando para construir estos modelos? ¿Y las experiencias de las comunidades más afectadas por el odio en línea se están integrando en la creación de estas herramientas?

Sin transparencia de las plataformas, simplemente no hay garantía de que estos modelos de IA no permitan la propagación de prejuicios o intolerancia.

Salvaguarda contra el uso de armas

Incluso con prácticas sólidas de confianza y seguridad, los usuarios comunes aún pueden hacer un mal uso de la IA. Como líderes, debemos alentar a los diseñadores de sistemas de IA a incorporar salvaguardas contra el uso de armas por parte de humanos.

Desafortunadamente, a pesar de todo su poder y potencial, las herramientas de IA hacen que sea fácil, rápido y accesible para los malos actores producir contenido para cualquiera de esos escenarios. Pueden producir noticias falsas convincentes, crear deepfakes visualmente convincentes y difundir el odio y el acoso en cuestión de segundos. El contenido generativo generado por IA también podría contribuir a la propagación de ideologías extremistas, o utilizarse para radicalizar a las personas susceptibles.

En respuesta a estas amenazas, las plataformas de IA deben incorporar sistemas de moderación sólidos que puedan soportar la avalancha potencial de contenido dañino que los perpetradores podrían generar utilizando estas herramientas.

La IA generativa tiene un potencial casi ilimitado para mejorar vidas y revolucionar la forma en que procesamos la cantidad infinita de información disponible en línea. Estoy entusiasmado con las perspectivas de un futuro con IA, pero solo con un liderazgo responsable.


Source link