La agitación social durante la pandemia de COVID-19 subraya la necesidad de nuevas regulaciones de datos de IA

La agitación social durante la pandemia de COVID-19 subraya la necesidad de nuevas regulaciones de datos de IA

Bradford K. Newman Colaborador

El Sr. Newman es el presidente de la Práctica de Secretos Comerciales de América del Norte de Baker McKenzie. Los puntos de vista y opiniones expresados ​​aquí son suyos.

Más publicaciones de este colaborador La sociedad necesita la Ley de protección de datos de inteligencia artificial ahora La inteligencia artificial plantea un mayor riesgo para la propiedad intelectual que los humanos

Como defensor desde hace mucho tiempo de la regulación de la IA que está diseñada para proteger la salud y la seguridad públicas y, al mismo tiempo, promover la innovación, creo que el Congreso no debe demorarse en promulgar, de manera bipartidista, la Sección 102 (b) de la Ley de Protección de Datos de Inteligencia Artificial: mi legislación propuesta y ahora un Proyecto de Ley para Discusión en la Cámara de Representantes. Las barandillas en la forma de la legislación ética de IA de la Sección 102 (b) son necesarias para mantener la dignidad del individuo.

¿Qué establece la Sección 102(b) de la Ley de Protección de Datos de IA y por qué es urgente que el gobierno federal la promulgue ahora?

Para responder a estas preguntas, primero es necesario comprender cómo se está utilizando la inteligencia artificial (IA) durante este momento histórico en el que nuestra sociedad democrática enfrenta dos amenazas existenciales simultáneas. Solo entonces se podrán reconocer los riesgos que la IA representa para nuestra dignidad individual, y se entenderá la Sección 102(b) como uno de los remedios más importantes para proteger las libertades que los estadounidenses aprecian y que sirven como base de nuestra sociedad.

Estados Unidos ahora está experimentando protestas masivas que exigen el fin del racismo y la brutalidad policial, y observa cómo se desarrollan disturbios civiles en medio de los intentos de sofocar la pandemia mortal de COVID-19. Ya sea que lo sepamos o lo aprobemos, en ambos contextos, y en todas las demás facetas de nuestras vidas, las tecnologías de IA están siendo implementadas por actores gubernamentales y privados para tomar decisiones críticas sobre nosotros. En muchos casos, la IA se utiliza para ayudar a la sociedad y para llevarnos a la próxima normalidad lo más rápido posible.

Pero hasta ahora, los formuladores de políticas han pasado por alto en gran medida una preocupación crítica de salud y seguridad pública impulsada por la IA. Cuando se trata de IA, la mayor parte del enfoque se ha centrado en los problemas de equidad, sesgo y transparencia en los conjuntos de datos utilizados para entrenar algoritmos. No hay duda de que los algoritmos han producido sesgos; uno solo necesita buscar ejemplos de exclusión injusta de mujeres y minorías raciales en el reclutamiento de empleados y la suscripción de préstamos.

También hemos visto que la IA genera resultados no deseados y, a veces, inexplicables a partir de los datos. Considere el ejemplo reciente de un algoritmo que se suponía ayudaría a los jueces a sentenciar de manera justa a los delincuentes no violentos. Por razones que aún no se han explicado, el algoritmo asignó puntajes de riesgo más altos a los acusados ​​menores de 23 años, lo que resultó en sentencias un 12 % más largas que sus pares mayores que habían estado encarcelados con más frecuencia, sin reducir el encarcelamiento ni la reincidencia.

Pero las crisis gemelas actuales exponen otro problema más desconcertante que se ha pasado por alto en gran medida: ¿cómo debería la sociedad abordar el escenario en el que el algoritmo de IA lo hizo bien pero, desde un punto de vista ético, la sociedad se siente incómoda con los resultados? Dado que el propósito esencial de la IA es producir datos predictivos precisos a partir de los cuales los humanos puedan tomar decisiones, ha llegado el momento de que los legisladores resuelvan no lo que es posible con respecto a la IA, sino lo que debe prohibirse.

Los gobiernos y las corporaciones privadas tienen un apetito interminable por nuestros datos personales. En este momento, los algoritmos de IA se utilizan en todo el mundo, incluso en los Estados Unidos, para recopilar y analizar con precisión todo tipo de datos sobre todos nosotros. Contamos con reconocimiento facial para vigilar a los manifestantes en una multitud o para determinar si el público en general observa el distanciamiento social adecuado. Hay datos de teléfonos celulares para el rastreo de contactos, así como publicaciones en redes sociales públicas para modelar la propagación del coronavirus a códigos postales específicos y para predecir la ubicación, el tamaño y la violencia potencial asociada con las manifestaciones. Y no olvidemos los datos de drones que se utilizan para analizar el uso de máscaras y la fiebre, o los datos de salud personal que se utilizan para predecir qué pacientes hospitalizados con COVID tienen más posibilidades de deteriorarse.

Solo mediante el uso de IA se puede compilar y analizar esta cantidad de datos personales a una escala tan masiva.

Este acceso mediante algoritmos para crear un perfil individualizado de los datos de nuestro teléfono celular, el comportamiento social, los registros de salud, los patrones de viaje y el contenido de las redes sociales, y muchos otros conjuntos de datos personales, en nombre de mantener la paz y reducir una pandemia devastadora puede, y dará como resultado que varios actores gubernamentales y corporaciones creen perfiles predictivos terriblemente precisos de nuestros atributos más privados, inclinaciones políticas, círculos sociales y comportamientos.

Si no se regula, la sociedad corre el riesgo de que estos análisis generados por IA sean utilizados por las fuerzas del orden, los empleadores, los propietarios, los médicos, las aseguradoras y cualquier otra empresa privada, comercial y gubernamental que pueda recopilarlos o comprarlos para tomar decisiones predictivas, sean precisas o no. , que impactan nuestras vidas y dan un golpe a las nociones más fundamentales de una democracia liberal. AI continúa asumiendo un papel cada vez mayor en el contexto laboral para decidir quién debe ser entrevistado, contratado, ascendido y despedido. En el contexto de la justicia penal, se utiliza para determinar a quién encarcelar y qué sentencia imponer. En otros escenarios, la IA restringe a las personas a sus hogares, limita ciertos tratamientos en el hospital, niega préstamos y penaliza a quienes desobedecen las normas de distanciamiento social.

Con demasiada frecuencia, aquellos que evitan cualquier tipo de regulación de IA buscan descartar estas preocupaciones como hipotéticas y alarmistas. Pero hace solo unas semanas, Robert Williams, un hombre negro y residente de Michigan, fue arrestado injustamente debido a una coincidencia de reconocimiento facial falso. Según informes de prensa y un comunicado de prensa de la ACLU, la policía de Detroit esposó al Sr. Williams en su jardín frente a su esposa y dos niñas aterrorizadas, de dos y cinco años. La policía lo llevó a un centro de detención a unos 40 minutos de distancia, donde estuvo encerrado durante la noche. Después de que un oficial reconoció durante un interrogatorio a la tarde siguiente que “la computadora debe haberse equivocado”, el Sr. Williams finalmente fue liberado, casi 30 horas después de su arresto.

Si bien se cree ampliamente que es el primer caso confirmado de reconocimiento facial incorrecto de AI que condujo al arresto de un ciudadano inocente, parece claro que este no será el último. Aquí, AI sirvió como base principal para una decisión crítica que impactó al ciudadano individual: ser arrestado por la policía. Pero no solo debemos centrarnos en el hecho de que la IA falló al identificar a la persona equivocada, negándole su libertad. Debemos identificar y proscribir aquellas instancias en las que la IA no debe usarse como base para decisiones críticas específicas, incluso cuando lo hace “bien”.

Como sociedad democrática, no deberíamos estar más cómodos con ser arrestados por un crimen que contemplamos pero no cometimos, o que se nos niegue el tratamiento médico por una enfermedad que sin duda terminará en la muerte con el tiempo, como lo estamos con el error del Sr. Williams. arrestar. Debemos establecer una “zona de exclusión aérea” de IA para preservar nuestras libertades individuales. No debemos permitir que ciertas decisiones clave se dejen únicamente en manos de los resultados predictivos de algoritmos de inteligencia artificial.

Para ser claros, esto significa que incluso en situaciones en las que todos los expertos están de acuerdo en que los datos que ingresan y obtienen son completamente imparciales, transparentes y precisos, debe haber una prohibición legal de utilizarlos para cualquier tipo de toma de decisiones predictiva o sustantiva. Esto es ciertamente contrario a la intuición en un mundo donde anhelamos la certeza matemática, pero es necesario.

La Sección 102 (b) de la Ley de Protección de Datos de Inteligencia Artificial logra esto de manera adecuada y racional en el contexto de ambos escenarios, donde la IA genera resultados correctos y/o incorrectos. Lo hace de dos maneras clave.

Primero, la Sección 102(b) identifica específicamente aquellas decisiones que AI nunca puede tomar en su totalidad o en parte. Por ejemplo, enumera los usos indebidos específicos de la IA que prohibirían la dependencia exclusiva de las entidades cubiertas en la inteligencia artificial para tomar ciertas decisiones. Estos incluyen el reclutamiento, la contratación y la disciplina de las personas, la denegación o limitación del tratamiento médico o los emisores de seguros médicos que toman decisiones con respecto a la cobertura de un tratamiento médico. A la luz de lo que la sociedad ha presenciado recientemente, es probable que las áreas prohibidas se amplíen para minimizar aún más el riesgo de que la IA se utilice como herramienta para la discriminación racial y el acoso de las minorías protegidas.

En segundo lugar, para ciertas otras decisiones específicas basadas en análisis de IA que no están totalmente prohibidas, la Sección 102 (b) define aquellas instancias en las que un ser humano debe participar en el proceso de toma de decisiones.

Al promulgar la Sección 102(b) sin demora, los legisladores pueden mantener la dignidad del individuo al no permitir que las decisiones más críticas que afectan al individuo se dejen únicamente en manos de los resultados predictivos de los algoritmos de inteligencia artificial.


Source link