¿Cuáles son los dilemas éticos del uso de la inteligencia artificial?

Un gran poder conlleva una gran responsabilidad. La frase resulta tópica desde que Stan Lee, el creador de Spider-Man, contribuyó a divulgarla en sus cómics, pero no por ello deja de ser cierta. La inteligencia artificial (IA) es un campo de innovación tecnológica en el que se están produciendo avances asombrosos. Aunque el concepto existe desde la conferencia de Dartmouth, en 1956, ha sido en el último decenio cuando los sistemas de IA y algoritmos han irrumpido con contundencia en nuestras vidas cotidianas.

Según el científico cognitivo Marvin Minsky, hemos enseñado a los ordenadores a tomar decisiones autónomas “que requieren inteligencia”, y ese es un logro “tan espectacular y esperanzador como inquietante”. Ya no se trata de robots que ejecutan con precisión tareas predeterminadas, sino de sistemas artificiales que “deciden” por sí mismos, simulando nuestros procesos cognitivos y de aprendizaje.

Para David Leslie, del Alan Turing Institute (Londres), autor del documento pionero Understanding Artificial Intelligence Ethics and Safety, “cuando los seres humanos realizan tareas que requieren inteligencia, se les hace responsables del grado de precisión, fiabilidad y sensatez de sus decisiones”. En especial, se les juzga por “el efecto de sus acciones sobre otros seres humanos”. Y ese grado de exigencia ética y jurídica hay que aplicarlo también a los cada vez más complejos y sofisticados sistemas de inteligencia artificial de los que hacemos uso en campos como la salud, la educación, el transporte o la seguridad. Pero aquí entra un debate: ¿puede la IA ser responsable ética y jurídicamente de sus actos?

El avance de los sistemas de vigilancia en aeropuertos, basado en la Inteligencia Artificial, también supone un riesgo ético. Cámaras térmicas o de reconocimiento facial son una realidad en aeropuertos.
El avance de los sistemas de vigilancia en aeropuertos, basado en la Inteligencia Artificial, también supone un riesgo ético. Cámaras térmicas o de reconocimiento facial son una realidad en aeropuertos.Izabela Habur / Getty Images

Seguridad escrupulosa y no invasiva

Conoce en profundidad todas las caras de la moneda.

Suscríbete

Estos dilemas se plantean con especial nitidez en un ámbito tan sensible a la innovación como el de la seguridad privada. “La tecnología da superpoderes a nuestros vigilantes”, nos cuenta José Daniel García Espinel, director de Innovación de Prosegur. La empresa de seguridad está inmersa en un proceso de profunda renovación tecnológica para el que la pandemia ha servido de acelerador. Hoy, disponen de sistemas de análisis cualitativo de las imágenes obtenidas por cámaras de videovigilancia, sistemas pioneros de detección de incendios, ruidos, gases o caídas de objetos, controles de acceso no invasivos con toma de temperatura y comprobación de equipos de protección de seguridad individual… Todo un arsenal tecnológico de novísimo cuño puesto al servicio de la creación de entornos cada vez más seguros y que hace, tal y como explica, García Espinel, “un uso intensivo de algoritmos de inteligencia artificial de desarrollo propio o el uso de otros ya existentes”.

La aplicación de las nuevas tecnologías a la vigilancia en infraestructuras de transporte se ha hecho con pleno respeto al actual marco legal de protección de datos y bajo una reflexión ética del uso de la inteligencia artificial

José Daniel García Espinel, director de Innovación de Prosegur

Un ejemplo de cómo funcionan en la práctica estas nuevas tecnologías aplicadas a la seguridad y la vigilancia es en las infraestructuras de transporte, un entorno en que los controles se pueden desarrollar de manera rápida y fluida, sin incomodidades para el usuario, porque apoyando al vigilante hay una videocámara inteligente conectada a un sistema de comunicaciones, una central de control remoto y un centro de operaciones de seguridad (SOC, por sus siglas en inglés). García Espinel destaca que “este salto cualitativo se ha hecho de manera muy escrupulosa, con pleno respeto al actual marco legal de protección de datos y bajo una reflexión previa sobre los debates éticos que plantea el uso de tecnologías como la inteligencia artificial”.

Un nuevo marco legal

El pasado 21 de abril, la Comisión Europea hizo públicas las bases de su futuro reglamento sobre el uso de la inteligencia artificial. En ellas se asume que “los beneficios potenciales de la IA para nuestras sociedades son múltiples” y que la mayoría de sistemas implementados presentarán “un riesgo bajo o nulo”. Sin embargo, en los casos puntuales en que esos riesgos existan, la Comisión se compromete a garantizar “la tutela de los derechos fundamentales de los ciudadanos europeos”. Y para ello se prevé un sistema de sanciones administrativas que afecta tanto a los prestadores de esos sistemas de IA como a sus usuarios. Las infracciones más graves conllevarán multas de hasta 30 millones de euros o, si el infractor es una empresa, hasta el 6% de su volumen de negocio anual.

Los directivos de las grandes empresas deberían ser conscientes de que algunas de las decisiones pueden lesionar derechos y llegar a ser inmorales

Iñaki Ortega, economista y profesor en la Universidad Internacional de La Rioja (UNIR)

Para el economista y profesor en la Universidad Internacional de La Rioja (UNIR), Iñaki Ortega, la hora de la plena responsabilidad ha llegado: “Los directivos de las grandes empresas deberían ser conscientes de que algunas de las decisiones que adoptan en el ejercicio de su actividad pueden lesionar derechos y llegar a ser inmorales”. Detrás de la utilización poco escrupulosa de algoritmos y sistemas “hay profesionales concretos”. Él propone “una especie de nuevo juramento hipocrático para estos tecnólogos, algo que muchas instituciones ya están planteando”.

Prosegur está desarrollando un reglamento interno y creando un comité específico de inteligencia artificial que aborda cuestiones éticas.
Prosegur está desarrollando un reglamento interno y creando un comité específico de inteligencia artificial que aborda cuestiones éticas.CEDIDA POR PROSEGUR / CÉSAR MANSO

En especial, Ortega valora muy positivamente uno de esos compromisos éticos, “el llamado juramento tecnocrático que promueve la Universidad de Columbia con el neurobiólogo español Rafael Yuste: los emprendedores, investigadores, informáticos y cualquier profesional involucrado en la neurotecnología o la inteligencia artificial deberían suscribirlo”. Sería un juramento público “para darle mayor solemnidad y peso moral”, e incluiría compromisos como “la no maleficencia (la tecnología debe aplicarse siempre sin voluntad de causar daño), la búsqueda del bien común, el consentimiento de los afectados, la imparcialidad de los algoritmos (que no deben incluir ningún sesgo discriminatorio), la transparencia y el pleno respeto por la dignidad de las personas”.

La transparencia y el respeto a la privacidad son cualidades que solemos exigir a las instituciones públicas pero con frecuencia olvidamos pedírselos también a quienes desarrollan algoritmos

Maite López Sánchez, profesora de la Universitat de Barcelona

En el mismo sentido va la reflexión de Maite López Sánchez, profesora de la Universitat de Barcelona y coordinadora del máster interuniversitario de inteligencia artificial. Para la académica, “cada vez somos más conscientes de que el diseño de algoritmos y sistemas de IA debe ser más respetuoso con los valores éticos de las personas, y eso implica ir un paso más allá de si es legal o no para contemplar también hasta qué punto es compatible con nuestro sistema ético de valores”. Entre ese conjunto de principios, López valora muy oficialmente “la transparencia y el respeto a la privacidad”. Y recuerda que son cualidades que solemos exigir a las instituciones públicas “pero con frecuencia olvidamos pedírselos también a quienes desarrollan algoritmos”.

Un imperativo ético asumido por las principales empresas

En el mundo de la empresa, compañías como Google, Hewlett Packard o Microsoft están desarrollando en los últimos años sus propios protocolos y códigos morales internos basados en muy exigentes criterios de responsabilidad corporativa. Para Tim Bajarin, experto en tecnología y derechos de los consumidores, estos manuales de buenas prácticas tienen en común “la voluntad de ir incluso más allá de los nuevos marcos legales que se están desarrollando en la Unión Europea, Estados Unidos y Gran Bretaña”. Todos parten, según Bajarin, de una estimación realista “de lo que podría salir mal si no nos ceñimos a una serie de directrices y principios rectores muy estrictos que, en primer lugar, nos obligan a plantearnos si una tecnología de este tipo es realmente necesaria y si sus beneficios potenciales superan con claridad a sus posibles riesgos”.

En Prosegur disponen de tecnologías para detectar automáticamente, en remoto, el uso de equipos de protección de los trabajadores en los entornos industriales: cascos, guantes, mascarillas…
En Prosegur disponen de tecnologías para detectar automáticamente, en remoto, el uso de equipos de protección de los trabajadores en los entornos industriales: cascos, guantes, mascarillas…CEDIDA POR PROSEGUR / CÉSAR MANSO

Para Daniel Bastida, Delegado de Protección de Datos de Prosegur, “antes de desarrollar cualquier sistema de inteligencia artificial, hay que plantearse si resulta necesario, proporcionado e idóneo”. Esos son los tres criterios básicos que aplica su compañía para garantizar que “todos nuestros procesos de innovación tecnológica partan en primer lugar de una reflexión ética”. Prosegur se está anticipando al nuevo marco legal que va a consolidarse en Europa y en España, desarrollando un reglamento interno y creando un comité específico de inteligencia artificial en el que estarán representados varios departamentos de la compañía, “de protección de datos e innovación a licencias, recursos humanos o el equipo jurídico”, según cuenta Bastida. En todos los casos, “será el juicio ético el que determine las reglas del juego”.

Protección adecuada de datos sensibles

Bastida pone un ejemplo práctico de los protocolos que está aplicando ya su compañía: “En nuestros procesos de análisis y entrenamiento de algoritmos estamos usando datos sintéticos para asegurarnos de que no se compromete la privacidad de las personas”. García Espinel explica el concepto: “Disponemos de tecnologías para detectar automáticamente el uso de equipos de protección personal, es decir, de los elementos que garantizan la seguridad de los trabajadores en entornos industriales: cascos, guantes, mascarillas… Para que las cámaras de videovigilancia inteligente reconozcan si todos los que acceden llevan el equipo completo y puesto correctamente, necesitamos entrenar a nuestros algoritmos de análisis cualitativo con imágenes de personas con o sin casco, con o sin guantes, con la mascarilla bien y mal puesta. Si hiciésemos uso de imágenes reales recogidas de manera aleatoria sin autorización, estaríamos vulnerando el derecho a la privacidad de las personas que aparecen en ellas. Así que hemos recurrido a un sistema de creación de imágenes sintéticas a partir de modelos 3D generados por ordenador”.

Antes de desarrollar cualquier sistema de inteligencia artificial, hay que plantearse si resulta necesario, proporcionado e idóneo

Daniel Bastida, delegado de Protección de Datos de Prosegur

El responsable de innovación añade: “Algunos sistemas de inteligencia artificial requieren un número limitado de imágenes reales de partida, lo que llamamos datos semilla, por lo que en esos casos los generamos retratando a modelos que previamente han firmado un consentimiento informado”. Bastida añade que Prosegur se está tomando muy en serio la prohibición, consagrada en el Reglamento Europeo de Protección de Datos, de generar y conservar datos biométricos (huellas dactilares, reconocimiento facial, de voz, de retina, de manera de andar, de escritura en teclado…) salvo en circunstancias excepcionales que así lo requieran: “En sistemas de desbloqueo de alarma mediante contraseña y reconocimiento de voz, recogemos el dato biométrico, lo comparamos y lo eliminamos de inmediato. Y procedemos siempre con consentimiento explícito de los afectados”.

Para García Espinel, “estos recursos tecnológicos suponen un incremento exponencial de la seguridad de los implicados. La videovigilancia con análisis inteligente de flujo de datos nos permite detectar cosas que sin ella no percibiríamos, es un potenciador extraordinariamente eficaz de las capacidades del vigilante”. No sustituye a la proximidad física ni la capacidad de intervención del ser humano “pero sí le permite disponer de un plan B y de un plan C al servicio del objetivo final, que es garantizar entornos seguros”. La guinda del pastel es, por supuesto, que a todas estas virtudes se añada un análisis riguroso de los posibles riesgos e implicaciones éticas.


Source link