El despido de Timnit Gebru de Google dio la vuelta al mundo hace ahora un año. A la ingeniera etíope (Adis Abeba, 38 años), codirectora del equipo de Ética de la Inteligencia Artificial (IA) de la multinacional, se le comunicó por correo electrónico que se había aceptado su solicitud de abandonar la empresa. Ella dice que nunca pidió eso; lo que sí hizo fue quejarse ante unos colegas de que la compañía quisiera censurar un artículo científico suyo todavía sin publicar en el que describía cómo los modelos algorítmicos de procesamiento del lenguaje, usados para autocompletar búsquedas o mantener conversaciones con programas informáticos, están fuertemente sesgados y perjudican a las minorías.
Gebru anunció la semana pasada, justo un año después del escándalo, el lanzamiento de su propio centro de investigación, el Distributed AI Research Insititute (DAIR). Financiado con 3,8 millones de dólares (3,3 millones de euros) por varias fundaciones, entre ellas la Rockefeller, la MacArthur y la Open Society, se dedicará a estudiar los daños que causa la tecnología en los grupos más marginados por estas. Para ello ha montado un equipo multidisciplinar en el que informáticos, especialistas en ciencia de datos y en visión artificial conviven con sociólogos, trabajadores sociales y otros perfiles humanistas. “He visto cómo funcionan la academia y la industria y ambos tienen estructuras de incentivos que no se alinean con lo que quiero hacer”, explica a EL PAÍS por videollamada. “Mi idea es centrar las preguntas y la investigación en direcciones que puedan ser útiles para las personas que suelen ser ignoradas por las instituciones de investigación convencionales”.
I was fired by @JeffDean for my email to Brain women and Allies. My corp account has been cutoff. So I’ve been immediately fired 🙂
— Timnit Gebru (@timnitGebru) December 3, 2020
Los ecos del despido de Gebru todavía resuenan en la industria. Y concretamente en Google, cuyo compromiso con la defensa de sus propósitos éticos quedó desde entonces cuestionado. Deshacerse de malas formas de una reputada científica como ella en una compañía en cuya plantilla solo hay un 1,6% de mujeres negras y en el que los hombres blancos ocupan casi el 50% de los cargos directivos levantó ampollas de puertas adentro. Hacerlo, además, como aparente castigo por señalar fallos de praxis en un sector tan cuestionado como es el de la tecnología atrajo todas las miradas. Varios congresistas y senadores de Estados Unidos exigieron a la compañía que explicase el despido y revelase el contenido íntegro del informe de Gebru. Más de 2.500 empleados de Google y de 4.000 académicos de todo el mundo firmaron una carta en apoyo de la científica. Sundar Pinchai, consejero delegado de Alphabet, matriz de Google, tuvo que mandar un correo a sus empleados pidiendo disculpas por el despido y asegurando que se revisaría el proceso.
Y, de hecho, se revisó, según confirma la aludida. “Unos meses después de que me echaran me contactó alguien de Google diciéndome que estaban investigando el despido y pidiéndome que le contestara a unas preguntas”, asegura. “Por supuesto, les contesté que no”, añade entre risas. “Sé cómo van estas cosas: querían encontrar algo a lo que agarrarse, algo que yo hiciera que lo pudiera justificar. Después de ser tan irrespetuosos conmigo no quise saber nada de ellos”.
Las ingenieras Timnit Gebru, Rediet Abebe, Joy Buolamwini y Alicia Chong Rodriguez posan en una fiesta organizada por Bloomberg en 2018 en Nueva York.Noam Galai (Getty Images for Bloomberg Busin)
Quizás lo más llamativo del caso Gebru es que cabía esperar que el trabajo de la científica no fuera del agrado de Google. La compañía la fichó siendo ya una investigadora de prestigio. Doctorada en visión artificial en la Universidad de Stanford bajo la dirección de la célebre profesora Fei-Fei Li, saltó a la fama en la academia tras publicar en 2018 junto a su colega Joy Buolamwini, del MIT, un artículo ya clásico en el que demuestran que el margen de error de los sistemas de reconocimiento facial es del 1% entre hombres blancos, pero la precisión empeora si se fijan en mujeres o en negros. Con las mujeres negras, estos sistemas se equivocan el 35% de las veces. El revuelo que causó el estudio fue tal que algunas compañías, como Amazon o IBM, revisaron sus algoritmos para tratar de corregir ese defecto.
Los ejecutivos de Google quisieron contar con ella para encabezar el área de ética de los algoritmos. Y cuando se puso a trabajar, no les gustó lo que vieron. “Lo interesante del asunto es que no hice nada rompedor, realmente creo que el artículo no habría recibido demasiada atención pública si no me hubieran despedido. Lo que muestra mi caso es el poco estómago que tienen en Google para encajar cualquier tipo de crítica”, subraya.
Cree que la usaron. “Nos tienen para eso. Cuando el Congreso y el Senado preguntaron por mi despido y el artículo, Jeff Dean [máximo responsable de Google AI] dijo que la empresa se preocupa mucho de la ética, que tiene 500 artículos escritos sobre el tema y varios grupos de investigación trabajando en ética. Así usan nuestro trabajo, de cara a los reguladores. ¿Por qué hiciste estas cosas horribles con los negros? ¡Oh, no, si nosotros hacemos muchas cosas con los negros! Si hasta dedicamos una gran cantidad de dinero a esta investigación aleatoria que nos hace parecer buenos…”.
Gebru sabía a lo que iba. Nunca pretendió cambiar Google desde dentro, aunque sí pensó que podría generar en la compañía un espacio en el que la gente expresase sus opiniones. No pudo ser. “Desde el mismo momento en que me contrataron me preguntaba cuánto duraría en Google. Cada mes me decía: guau, tío, ¿podré seguir haciendo esto durante otros tres meses? Bueno, al acabar el trimestre seré evaluada, pero hasta entonces, a trabajar. Y luego volvía a pensar si podría seguir. Y así estuve dos años”, recuerda.
Apartheid y genocidio
La científica y su equipo de DAIR ya tienen dos proyectos en marcha. El primero de ellos pretende analizar el legado del apartheid espacial en Sudáfrica usando técnicas de visión artificial, un campo de aprendizaje automático que enseña a las máquinas a entender las imágenes. Gebru y su equipo están estudiando cómo hacer pública la base de datos y cómo desarrollar visualizaciones con las que la gente pueda interactuar. ”Lo bueno de ser independientes es que podemos invertir más recursos en pulir el resultado para difundirlo si así lo queremos. En la investigación universitaria se te exige sacar artículos en congresos; en la investigación corporativa estás sometida a la voluntad de quien mande, como me pasó a mí en Google. Ahora podemos controlar el proceso de principio a fin”, señala con entusiasmo.
La investigadora Timnit Gebru, en una imagen tomada poco después de su despido de Google.Medium
El segundo, en fase más embrionaria, quiere medir el impacto de las redes sociales en los países que las propias plataformas no consideran relevantes. “En Etiopía, donde nací y me crie, en guerra desde noviembre del año pasado, se ha notado especialmente la ausencia de moderadores de contenidos”, se lamenta. La difusión del discurso del odio y de bulos ha tenido efectos devastadores, asegura. Gebru y otros colegas denunciaron hace dos meses lo que consideraban “una clara llamada al genocidio” en Facebook. El post se publicó en amárico, una de las lenguas habladas en el país africano. La empresa respondió que la publicación no incumplía las normas, aunque lo retiró tras reiteradas denuncias de periodistas y después de haber sido compartido y comentado por muchos usuarios.
Aunque la empresa de Mark Zuckerberg se lleva la fama, Gebru alerta de que otras redes sociales son igualmente peligrosas en la difusión de este tipo de contenidos. “Solemos centrarnos en Facebook cuando hablamos de moderación de contenidos, pero YouTube es un canal muy usado también y al que apenas se presta atención en este contexto. Clubhouse, TikTok, Telegram… Todas estas redes se usan para propagar mensajes de odio con impunidad. Estoy tratando de ver qué cosas tangibles podría hacer en este campo que sean de ayuda”, apunta.
Gebru es consciente de que su instituto es una hormiga frente a los gigantes tecnológicos. Pero no está sola. La Algorithmic Justice League, fundada por su amiga Joy Buolamwini; el AI Institute, de la australiana Cate Crawford, y Data & Society, entre otras, trabajan en la misma dirección, cada una en su nicho. Aunque cree que la primera línea de defensa para la sociedad es promover normativas laborales sólidas en las empresas que desarrollan la tecnología. “Es imprescindible que los trabajadores puedan quejarse cuando ven algo raro sin temor a perder su trabajo. En EE UU, la asistencia sanitaria está ligada a tu empresa; tu visado, en el caso de que seas extranjero, también. Si te echan te quedas sin nada, y el Gobierno no te presta apoyo. Si no cambiamos eso, las empresas seguirán teniendo la sartén por el mango”.
Puedes seguir a EL PAÍS TECNOLOGÍA en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.