Necesitamos un nuevo campo de IA para combatir los prejuicios raciales

Necesitamos un nuevo campo de IA para combatir los prejuicios raciales

Gary M. Shiffman Colaborador

Más publicaciones de este colaborador Ransomware: un problema de mercado merece una solución de mercado

Desde que comenzaron las protestas generalizadas por la desigualdad racial, IBM anunció que cancelaría sus programas de reconocimiento facial para promover la equidad racial en la aplicación de la ley. Amazon suspendió el uso policial de su software Rekognition durante un año para “establecer regulaciones más estrictas que rijan el uso ético de la tecnología de reconocimiento facial”.

Pero necesitamos más que un cambio regulatorio; todo el campo de la inteligencia artificial (IA) debe madurar fuera del laboratorio de informática y aceptar el abrazo de toda la comunidad.

Podemos desarrollar una IA increíble que funcione en el mundo de manera en gran medida imparcial. Pero para lograr esto, la IA no puede ser solo un subcampo de la informática (CS) y la ingeniería informática (CE), como lo es ahora. Debemos crear una disciplina académica de IA que tenga en cuenta la complejidad del comportamiento humano. Necesitamos pasar de la IA propiedad de las ciencias de la computación a la IA habilitada para las ciencias de la computación. Los problemas con la IA no ocurren en el laboratorio; ocurren cuando los científicos trasladan la tecnología al mundo real de las personas. Los datos de entrenamiento en el laboratorio de CS a menudo carecen del contexto y la complejidad del mundo que usted y yo habitamos. Este defecto perpetúa los sesgos.

Se ha descubierto que los algoritmos impulsados ​​​​por IA muestran prejuicios contra las personas de color y contra las mujeres. En 2014, por ejemplo, Amazon descubrió que un algoritmo de IA que desarrolló para automatizar la caza de cabezas aprendió a sesgar contra las candidatas. Los investigadores del MIT informaron en enero de 2019 que el software de reconocimiento facial es menos preciso para identificar a los humanos con pigmentación más oscura. Más recientemente, en un estudio a fines del año pasado por el Instituto Nacional de Estándares y Tecnología (NIST), los investigadores encontraron evidencia de sesgo racial en casi 200 algoritmos de reconocimiento facial.

A pesar de los innumerables ejemplos de errores de IA, el entusiasmo continúa. Esta es la razón por la cual los anuncios de IBM y Amazon generaron una cobertura de noticias tan positiva. Uso global de la inteligencia artificial creció un 270% de 2015 a 2019, y se espera que el mercado genere ingresos de $ 118.6 mil millones para 2025. Según Gallupcerca de El 90 % de los estadounidenses ya utilizan productos de IA en su vida cotidiana, a menudo sin siquiera darse cuenta.

Más allá de una pausa de 12 meses, debemos reconocer que, si bien la creación de IA es un desafío tecnológico, el uso de IA requiere disciplinas pesadas que no son de desarrollo de software, como las ciencias sociales, el derecho y la política. Pero a pesar de nuestro uso cada vez más ubicuo de la IA, la IA como campo de estudio todavía se agrupa en los campos de CS y CE. En la Universidad Estatal de Carolina del Norte, por ejemplo, los algoritmos y la IA se enseñan en el programa CS. El MIT alberga el estudio de la IA tanto en CS como en CE. La IA debe integrarse en los programas de humanidades, los planes de estudio de raza y género y las escuelas de negocios. Desarrollemos una pista de IA en los departamentos de ciencias políticas. En mi propio programa en la Universidad de Georgetown, enseñamos conceptos de inteligencia artificial y aprendizaje automático a estudiantes de estudios de seguridad. Esto debe convertirse en una práctica común.

Sin un enfoque más amplio de la profesionalización de la IA, es casi seguro que perpetuaremos los sesgos y las prácticas discriminatorias que existen en la actualidad. Simplemente podemos discriminar a un costo menor, lo que no es un objetivo noble para la tecnología. Requerimos el establecimiento intencional de un campo de IA cuyo propósito sea comprender el desarrollo de las redes neuronales y los contextos sociales en los que se desplegará la tecnología.

En ingeniería informática, un estudiante estudia programación y fundamentos informáticos. En informática, estudian la teoría computacional y programática, incluida la base del aprendizaje algorítmico. Estas son bases sólidas para el estudio de la IA, pero solo deben considerarse componentes. Estos fundamentos son necesarios para comprender el campo de la IA, pero no son suficientes por sí solos.

Para que la población se sienta cómoda con la implementación amplia de IA para que las empresas tecnológicas como Amazon e IBM, y muchas otras, puedan implementar estas innovaciones, toda la disciplina debe ir más allá del laboratorio de informática. Quienes trabajan en disciplinas como la psicología, la sociología, la antropología y la neurociencia Se necesitan. Es necesario comprender los patrones de comportamiento humano, sesgos en los procesos de generación de datos. no podría haber creado el software que desarrollé para identificar el tráfico de personas, el lavado de dinero y otros comportamientos ilícitos sin mi experiencia en ciencias del comportamiento.

La gestión responsable de los procesos de aprendizaje automático ya no es solo un componente deseable del progreso, sino necesario. Tenemos que reconocer las trampas del sesgo humano y los errores de replicar estos sesgos en las máquinas del mañana, y las ciencias sociales y las humanidades proporcionan las claves. Solo podemos lograr esto si se crea un nuevo campo de IA que abarque todas estas disciplinas.


Source link