Más publicaciones de este colaborador La IA sesgada perpetúa la injusticia racial
La Comisión de Seguridad Nacional de Inteligencia Artificial (NSCAI) emitió un reporte el mes pasado entregó un mensaje público incómodo: Estados Unidos no está preparado para defender o competir en la era de la IA. Conduce a dos preguntas clave que exigen nuestra respuesta inmediata: ¿Seguirá EE. UU. Siendo una superpotencia global si se queda atrás en el desarrollo y despliegue de la IA? ¿Y qué podemos hacer para cambiar esta trayectoria?
Si no se controlan, las herramientas de inteligencia artificial (IA) aparentemente neutrales pueden perpetuar y perpetuarán las desigualdades y, de hecho, automatizarán la discriminación. Los daños provocados por la tecnología ya han aparecido en las decisiones crediticias, servicios de atención médica y publicidad.
Para evitar esta recurrencia y crecimiento a escala, la administración de Biden debe aclarar las leyes actuales relacionadas con la inteligencia artificial y los modelos de aprendizaje automático, tanto en términos de cómo evaluaremos el uso por parte de actores privados y cómo gobernaremos el uso de la inteligencia artificial dentro de nuestros sistemas gubernamentales.
Si no se controlan, las herramientas de inteligencia artificial (IA) aparentemente neutrales pueden perpetuar y perpetuarán las desigualdades y, de hecho, automatizarán la discriminación.
La administración ha dado un paso adelante, desde nombramientos clave en el espacio tecnológico hasta emitir un orden ejecutiva el primer día en el cargo que estableció un Grupo de Trabajo de Datos Equitativos. Esto ha reconfortado a los escépticos preocupados tanto por el compromiso de Estados Unidos con el desarrollo de la IA como por garantizar la equidad en el espacio digital.
Pero eso será fugaz a menos que la administración muestre una firme determinación para hacer realidad la financiación de la IA y establecer los líderes y las estructuras necesarias para salvaguardar su desarrollo y uso.
Necesidad de claridad sobre las prioridades
Ha habido un cambio sísmico a nivel federal en la política de IA y en los compromisos declarados con la igualdad en la tecnología. Una serie de nombramientos de alto perfil por parte de la administración de Biden, desde la Dra.Alondra Nelson como adjunta de OSTP, hasta Tim Wu en el NEC, hasta (nuestro ex asesor principal) Kurt Campbell en el NSC, indican que se prestará una atención significativa a la inclusión Desarrollo de IA por expertos en el interior.
los Informe final de NSCAI incluye recomendaciones que podrían resultar críticas para habilitar mejores bases para el desarrollo inclusivo de IA, como la creación de nuevos canales de talento a través de un Academia de servicios digitales de EE. UU. capacitar a los empleados actuales y futuros.
El informe también recomienda establecer una nueva Consejo de Competitividad Tecnológica dirigido por el vicepresidente. Esto podría resultar esencial para garantizar que el compromiso de la nación con el liderazgo de la IA siga siendo una prioridad en los niveles más altos. Tiene sentido que el liderazgo de la administración en inteligencia artificial esté encabezado por el vicepresidente Harris a la luz de su asociación estratégica con el presidente, su experto en políticas tecnológicas y su enfoque en los derechos civiles.
Estados Unidos debe predicar con el ejemplo
Sabemos que la IA es poderosa en su capacidad de generar eficiencias, como revisar miles de currículums para identificar candidatos potencialmente adecuados. Pero también puede escalar la discriminación, como la Herramienta de contratación de Amazon que dio prioridad a los candidatos masculinos o “redlining digital”De crédito basado en la raza.
La administración de Biden debería emitir una orden ejecutiva a las agencias invitando a la ideación sobre las formas en que la IA puede mejorar las operaciones gubernamentales. La orden también debería exigir controles sobre la inteligencia artificial utilizada por el gobierno de los Estados Unidos para garantizar que no difunda resultados discriminatorios de forma involuntaria.
Por ejemplo, debe haber un cronograma de rutina en el que se evalúen los sistemas de IA para garantizar que los sesgos dañinos incorporados no den como resultado recomendaciones discriminatorias o inconsistentes con nuestros valores democráticos e inclusivos, y que se reevalúen de forma rutinaria dado que la IA está en constante iteración y aprendizaje. nuevos patrones.
Implementar un sistema de gobernanza de IA responsable es particularmente crítico en el gobierno de EE. UU., Que debe ofrecer vencer proceso protección al negar ciertos beneficios. Por ejemplo, cuando se utiliza IA para determinar la asignación de Beneficios de Medicaid, y dichos beneficios se modifican o niegan en función de un algoritmo, el gobierno debe poder explicar ese resultado, acertadamente denominado debido proceso tecnológico.
Si las decisiones se delegan a sistemas automatizados sin explicabilidad, lineamientos y vigilancia humana, nos encontramos en la insostenible situación en la que se niega este derecho constitucional básico.
Del mismo modo, la administración tiene un inmenso poder para garantizar que las salvaguardas de inteligencia artificial de los actores corporativos clave estén implementadas a través de su poder de adquisición. Se esperaba que el gasto de los contratos federales exceder los $ 600 mil millones en el año fiscal 2020, incluso antes de incluir los fondos de estímulo económico pandémico. El gobierno de los Estados Unidos podría tener un impacto tremendo al emitir una lista de verificación para la adquisición federal de sistemas de inteligencia artificial; esto garantizaría que el proceso del gobierno sea riguroso y se aplique universalmente, incluidas las consideraciones relevantes de derechos civiles.
Protección contra la discriminación derivada de los sistemas de IA
El gobierno tiene otra palanca poderosa para protegernos de los daños de AI: su autoridad investigadora y procesal. Una orden ejecutiva que instruya a las agencias para aclarar la aplicabilidad de las leyes y regulaciones actuales (por ejemplo, ADA, Vivienda Justa, Préstamos Justos, Ley de Derechos Civiles, etc.) cuando las determinaciones dependan de sistemas impulsados por IA podría resultar en un ajuste de cuentas global. Las empresas que operan en los EE. UU. Tendrían una motivación incuestionable para verificar sus sistemas de inteligencia artificial en busca de daños contra las clases protegidas.
Las personas de bajos ingresos son desproporcionadamente vulnerables a muchos de los efectos negativos de la IA. Esto es especialmente evidente con respecto a crédito y creación de préstamos, porque es menos probable que tengan acceso a productos financieros tradicionales o la capacidad de obtener puntajes altos basados en marcos tradicionales. Esto luego se convierte en los datos utilizados para crear sistemas de inteligencia artificial que automatizan tales decisiones.
La Oficina de Protección de las Finanzas del Consumidor (CFPB) puede desempeñar un papel fundamental a la hora de responsabilizar a las instituciones financieras de los procesos de préstamos discriminatorios que resultan de la dependencia de sistemas de inteligencia artificial discriminatorios. El mandato de una EO sería una función forzada para las declaraciones sobre cómo se evaluarán los sistemas habilitados para IA, avisando a las empresas y protegiendo mejor al público con expectativas claras sobre el uso de IA.
Existe un camino claro hacia la responsabilidad cuando un individuo actúa de manera discriminatoria y un debido proceso violación cuando un beneficio público es denegado arbitrariamente, sin explicación. En teoría, estas responsabilidades y derechos se transferirían con facilidad cuando se trata de un sistema de inteligencia artificial, pero una revisión de la acción de la agencia y los precedentes legales (o más bien, la falta de ellos) indica lo contrario.
La administración ha tenido un buen comienzo, como hacer retroceder un propuesta de regla de HUD eso habría hecho que las impugnaciones legales contra la IA discriminatoria fueran esencialmente inalcanzables. A continuación, las agencias federales con autoridad investigadora o procesal deben aclarar qué prácticas de inteligencia artificial caerían bajo su revisión y las leyes actuales serían aplicables, por ejemplo, HUD para la discriminación ilegal en la vivienda; CFPB sobre IA utilizado en préstamos crediticios; y el Departamento de Trabajo sobre la inteligencia artificial utilizada en las determinaciones realizadas en las contrataciones, evaluaciones y despidos.
Tal acción tendría el beneficio adicional de establecer un precedente útil para las acciones de los demandantes en las quejas.
La administración de Biden ha tomado los primeros pasos alentadores que señalan su intención de garantizar una inteligencia artificial inclusiva y menos discriminatoria. Sin embargo, debe poner su propia casa en orden ordenando que las agencias federales requieran que el desarrollo, la adquisición y el uso de la inteligencia artificial, internamente y por aquellos con quienes hace negocios, se haga de una manera que proteja la privacidad, los derechos civiles, las libertades civiles y los derechos de los Estados Unidos. valores.
Source link