El sector público del Reino Unido no se muestra abierto sobre el uso de la IA, según una revisión

El sector público del Reino Unido no se muestra abierto sobre el uso de la IA, según una revisión

UN reporte sobre el uso de inteligencia artificial por parte del sector público del Reino Unido ha advertido que el gobierno no está siendo abierto sobre las tecnologías de toma de decisiones automatizadas que tienen el potencial de afectar significativamente la vida de los ciudadanos.

Los ministros han sido especialmente optimistas sobre la inyección de nuevas tecnologías en la prestación de atención médica financiada por los contribuyentes: el ministro de salud, Matt Hancock, expuso una visión impulsada por la tecnología de “atención preventiva, predictiva y personalizada” en 2018, pidiendo una transformación digital de raíz y rama. del Servicio Nacional de Salud (NHS) para respaldar la canalización de datos de pacientes a una nueva generación de aplicaciones y servicios de “tecnología de la salud”.

el tambien tiene defendido personalmente una startup de chatbot, Babylon Health, que usa IA para la clasificación de atención médica, y que ahora vende un servicio al NHS.

La vigilancia es otra área en la que la IA se está acelerando en la prestación de servicios públicos del Reino Unido, con varias fuerzas policiales probando la tecnología de reconocimiento facial, y la policía metropolitana de Londres cambió a un despliegue en vivo de la tecnología de IA el mes pasado.

Sin embargo, la prisa de los servicios públicos con problemas de liquidez por aprovechar las “eficiencias” de la IA corre el riesgo de pasar por alto una variedad de preocupaciones éticas sobre el diseño y la implementación de dichos sistemas automatizados, desde temores sobre la incorporación de prejuicios y discriminación en la prestación de servicios y escalar resultados perjudiciales hasta cuestiones de consentimiento en torno al acceso a los conjuntos de datos que se utilizan para construir modelos de IA y agencia humana sobre los resultados automatizados, por nombrar algunas de las preocupaciones asociadas, todas las cuales requieren transparencia en las IA si debe haber responsabilidad sobre los resultados automatizados.

El papel de las empresas comerciales en la prestación de servicios de IA al sector público también plantea cuestiones éticas y legales adicionales.

La semana pasada, un tribunal de los Países Bajos destacó los riesgos para los gobiernos de apresurarse a incluir la IA en la legislación después de dictaminar que se infringió un sistema algorítmico de puntuación de riesgo implementado por el gobierno holandés para evaluar la probabilidad de que los solicitantes de la seguridad social comprometan beneficios o fraude fiscal. sus derechos humanos.

El tribunal se opuso a la falta de transparencia sobre cómo funciona el sistema, así como a la falta de control asociada, y ordenó el cese inmediato de su uso.

El comité parlamentario del Reino Unido que revisa los estándares en la vida pública emitió hoy una advertencia similar: publicó una serie de recomendaciones para el uso de la IA en el sector público y advirtió que la tecnología desafía tres principios clave de la prestación de servicios: apertura, responsabilidad y objetividad.

“Bajo el principio de apertura, la falta actual de información sobre el uso gubernamental de la IA corre el riesgo de socavar la transparencia”, escribe en un resumen ejecutivo.

“Bajo el principio de responsabilidad, existen tres riesgos: la IA puede oscurecer la cadena de responsabilidad organizacional; socavar la atribución de responsabilidad por decisiones clave tomadas por funcionarios públicos; e impedir que los funcionarios públicos brinden explicaciones significativas sobre las decisiones tomadas por AI. Bajo el principio de objetividad, la prevalencia del sesgo en los datos corre el riesgo de incrustar y amplificar la discriminación en la práctica diaria del sector público”.

“Esta revisión encontró que el gobierno está fallando en la apertura”, continúa, afirmando que: “Las organizaciones del sector público no son lo suficientemente transparentes sobre el uso que hacen de la IA y es demasiado difícil averiguar dónde se usa actualmente el aprendizaje automático en el gobierno. .”

En 2018, el relator especial de la ONU sobre la pobreza extrema y los derechos humanos expresó su preocupación por la prisa del Reino Unido por aplicar tecnologías digitales y herramientas de datos para rediseñar socialmente la prestación de servicios públicos a escala: advertencia luego que el impacto de un estado de bienestar digital en las personas vulnerables sería “inmenso” y pedir leyes más estrictas y la aplicación de un marco legal basado en los derechos para garantizar que el uso de tecnologías como la IA para la prestación de servicios públicos no termine perjudicando a las personas .

Según la evaluación del comité, es “demasiado pronto para juzgar si los organismos del sector público están manteniendo con éxito la rendición de cuentas”.

Los parlamentarios también sugieren que “los temores sobre la IA de la ‘caja negra’… pueden ser exagerados” y más bien llaman a la “IA explicable” un “objetivo realista para el sector público”.

Sobre la objetividad, escriben que el sesgo de datos es “un tema de gran preocupación, y se necesita más trabajo para medir y mitigar el impacto del sesgo”.

El uso de la IA en el sector público del Reino Unido sigue siendo limitado en esta etapa, según la revisión del comité, y la atención médica y la policía actualmente tienen los programas de IA más desarrollados, donde la tecnología se usa para identificar enfermedades oculares y predecir las tasas de reincidencia, por ejemplo. .

“La mayoría de los ejemplos que vio el Comité de IA en el sector público todavía estaban en desarrollo o en una etapa de prueba de concepto”, escribe el comité, y señala además que el Poder Judicial, el Departamento de Transporte y el Ministerio del Interior están “examinando cómo AI puede aumentar la eficiencia en la prestación de servicios”.

También escuchó evidencia de que el gobierno local está trabajando para incorporar sistemas de IA en áreas como educación, bienestar y atención social, destacando el ejemplo del Consejo del Condado de Hampshire que prueba el uso de altavoces inteligentes Amazon Echo en los hogares de adultos que reciben atención social como una herramienta. para cerrar la brecha entre las visitas de cuidadores profesionales, y apunta a un artículo de The Guardian que informó que un tercio de los consejos del Reino Unido usan sistemas algorítmicos para tomar decisiones de bienestar.

Pero el comité sugiere que todavía hay obstáculos “significativos” para lo que describen como una adopción “generalizada y exitosa” de los sistemas de inteligencia artificial por parte del sector público del Reino Unido.

“Los expertos en políticas públicas dijeron con frecuencia a esta revisión que el acceso a la cantidad correcta de datos limpios y de buena calidad es limitado y que los sistemas de prueba aún no están listos para ponerse en funcionamiento”, escribe. “Tenemos la impresión de que muchos organismos públicos todavía se están enfocando en la digitalización de servicios en etapa inicial, en lugar de proyectos de IA más ambiciosos”.

El informe también sugiere que la falta de un marco de estándares claro significa que es posible que muchas organizaciones aún no se sientan seguras de implementar IA.

“Si bien los estándares y la regulación a menudo se consideran barreras para la innovación, el Comité cree que la implementación de estándares éticos claros en torno a la IA puede acelerar en lugar de retrasar la adopción, al generar confianza en las nuevas tecnologías entre los funcionarios públicos y los usuarios del servicio”, sugiere.

Entre las 15 recomendaciones establecidas en el informe se encuentra un llamado para que se articule una base legal clara para el uso de la IA por parte del sector público. “Todas las organizaciones del sector público deben publicar una declaración sobre cómo su uso de IA cumple con las leyes y regulaciones pertinentes antes de que se implementen en la prestación de servicios públicos”, escribe el comité.

Otra recomendación es la claridad sobre qué principios éticos y orientación se aplican al uso de la IA en el sector público; el comité señaló que hay tres conjuntos de principios que podrían aplicarse al sector público, lo que está generando confusión.

“El público necesita comprender los principios éticos de alto nivel que rigen el uso de la IA en el sector público. El gobierno debe identificar, respaldar y promover estos principios y delinear el propósito, el alcance de la aplicación y la posición respectiva de cada uno de los tres conjuntos actualmente en uso”, recomienda.

También quiere que la Comisión de Igualdad y Derechos Humanos desarrolle una guía sobre el sesgo de datos y la lucha contra la discriminación para garantizar que el uso de IA por parte de los organismos del sector público cumpla con la Ley de Igualdad de 2010 del Reino Unido.

El comité no recomienda que se cree un nuevo regulador para supervisar la IA, pero pide a los organismos de supervisión existentes que actúen rápidamente para mantenerse al día con el ritmo de cambio impulsado por la automatización.

También aboga por un organismo de garantía regulatoria para identificar brechas en el panorama regulatorio y brindar asesoramiento a los reguladores individuales y al gobierno sobre los problemas asociados con la IA, lo que respalda la intención del gobierno para el Centro de Ética e Innovación de Datos (CDEI), que se anunció en 2017, para desempeñar este rol. (Un informe reciente del CDEI recomendó controles más estrictos sobre cómo los gigantes de las plataformas pueden usar la orientación de anuncios y la personalización de contenido).

Otra recomendación se refiere a las adquisiciones, y el comité insta al gobierno a utilizar su poder adquisitivo para establecer requisitos que “garanticen que las empresas privadas que desarrollan soluciones de IA para el sector público aborden adecuadamente los estándares públicos”.

“Esto debe lograrse asegurándose de que las disposiciones para los estándares éticos se consideren al principio del proceso de adquisición y se escriban explícitamente en las ofertas y acuerdos contractuales”, sugiere.

En respuesta al informe en un comunicado, el ministro digital en la sombra Chi Onwurah MP acusó al gobierno de “conducir a ciegas, sin control sobre quién está en el asiento del conductor de la IA”.

“Este informe serio lamentablemente confirma lo que sabemos que es el caso: que el gobierno conservador está fallando en la apertura y la transparencia cuando se trata del uso de la IA en el sector público”, dijo. “El Gobierno conduce a ciegas, sin control sobre quién está en el asiento del conductor de la IA. El gobierno necesita urgentemente tomar el control antes de que el potencial de consecuencias no deseadas se salga de control.

“El año pasado, argumenté en el parlamento que el gobierno no debería aceptar más algoritmos de IA en los procesos de toma de decisiones sin introducir más regulaciones. Continuaré presionando al Gobierno para que vaya más allá en el intercambio de información sobre cómo se utiliza actualmente la IA en todos los niveles del Gobierno. Como muestra este informe, existe una necesidad urgente de una guía práctica y una regulación aplicable que funcione. Es hora de actuar”.


Source link