“El modelo de aprovecharse de los datos para hacerse rico se está agotando”


El confinamiento soprendió a Inma Martínez (Valencia, 1964) en Málaga, donde estaba montando un apartamento en el que recluirse a escribir su segundo libro. El primero, La quinta revolución industrial (Deusto, 2019), trata sobre la comercialización del espacio; el que ahora tiene entre manos está relacionado con el sector del automóvil. El nexo de unión entre ambos temas y Martínez es la inteligencia artificial (IA), materia a la que se ha dedicado durante las dos últimas décadas. Fundamental en la carrera espacial, la IA ya se usaba en el diseño de automóviles mucho antes de que se empezara a hablar de vehículos autónomos.

La actividad profesional de Martínez va más allá de esas industrias. También asesora sobre IA y automatización a la Unión Europea y a varios países, entre ellos Reino Unido, donde vive desde hace casi 30 años. Su trabajo como consultora para el sector público se ha centrado últimamente en dos cuestiones: la discriminación algorítmica (la que se produce cuando los sesgos de los sistemas perjudican a ciertas personas o colectivos) y la regulación de la IA. A ello hay que sumarle ahora la exploración de aplicaciones de esta tecnología para luchar contra el coronavirus. Sobre todos esos temas pivota otro, omnipresente en la era digital y transversal en el discurso de Martínez: el derecho a la privacidad en el entorno virtual.

¿Cree que la ciudadanía presta la atención debida a lo que sucede con sus datos?

El escándalo de Cambridge Analytica pegó muy fuerte en Reino Unido. Allí mucha gente salió de Facebook. Los jóvenes ni lo contemplan. Esta generación se protege muchísimo más. Va a haber un cambio radical en cómo se usan las redes sociales. Facebook quiere retar a Amazon: ha creado Shops, para que los usuarios vendan lo que quieran. Tiene que buscarse la vida: intentó convencer a los jóvenes de que se abrieran una cuenta y fracasó, ya no va a poder monetizar tan bien los anuncios dirigidos. Ese modelo de aprovecharse de los datos de las personas para enriquecerse está agotándose.

¿Estamos protegidos contra los sesgos de los algoritmos?

Nos encaminamos a un cambio brutal. Las nuevas leyes de protección de datos empiezan a comprender cómo es realmente la vida online. Cuando voy al supermercado, una lata de tomate frito me cuesta lo mismo que a cualquiera. En cambio, si siempre vuelo en business class, las ofertas que me mostrará una aerolínea para ir a un mismo destino serán distintas que las que le aparezcan a alguien que acostumbre a volar en económico. Eso no puede ser. Luego están aquellos a quienes se les deniega un crédito por el perfilado que se haya hecho de ellos, en ocasiones con imprecisiones importantes. Hay que parar los algoritmos abusivos.

¿Cree que se está actuando de forma adecuada? ¿El Reglamento General de Protección de Datos (RGPD) es suficiente?

EL RGPD no ha funcionado demasiado bien porque la manera en que se pide el consentimiento sigue siendo un horror. ¿Cómo hemos dejado que hagan esto? El enfoque debe ser distinto: me da igual que tengas los datos o que no los tengas. De hecho, voy a asumir que no los tienes. Ahora, dime por qué le pones anuncios de apuestas de fútbol a esta persona que sabes perfectamente que tiene adicción al juego y a mí no.

¿Se refiere a auditar el funcionamiento de los algoritmos?

Exacto, el futuro de la regulación pasa por auditar el empleo de algoritmos: habrá que justificar por qué a ciertas personas se les pone unos entornos y a otras, otros distintos. Hay muchos casos reportados de discriminación algorítmica, donde la web que tú ves es distinta a la que veo yo. Cuando los algoritmos no atacan a las personas, la UE hace la vista gorda. Pero cuando perjudican a la gente, eso no se puede dejar pasar. Bruselas no irrumpirá en las empresas para que les muestren sus códigos: les exigirá que le expliquen por qué los algoritmos hacen que las personas hagan esto o lo otro, qué tipos de entornos presentan a los usuarios y que le demuestren que no son discriminatorios. Pero estas cosas llevan su tiempo, la Comisión Europea está todavía en labores de investigación previas a la legislación.

¿Qué tipos de discriminación algorítmica han detectado?

Me he pasado años documentando para Bruselas este tipo de inferencias algorítmicas perjudiciales para los usuarios. Tengo identificados varios tipos de algoritmos que hay que regular. Primero está la arquitectura de persuasión, la que explota vulnerabilidades de ciertos perfiles, por ejemplo bombardeándote con anuncios de casas de apuestas si saben que tienes un problema de adicción. Luego está la inferencia de perfil, es decir, el minado y rastreo de personas para crear perfiles sin su consentimiento a partir de datos recolectados de terceros. Fue muy sonado el caso de Facebook, que abrió cuentas a usuarios que jamás entraron en la red social. También está la discriminación algorítmica propiamente dicha, como ofrecer empleos de más categoría a hombres en vez de mujeres o excluir de los procesos de selección a candidatos con nombres árabes o afroamericanos. Por último, y muy en boga últimamente, está la radicalización de contenidos: algoritmos que, como ocurre en YouTube, te muestran contenidos relacionados que te llamen la atención, independientemente de su carácter.

¿Cómo está ayudando la IA a combatir la pandemia?

Quienes nos dedicamos a la IA entrenamos algoritmos. Pueden ser matemáticos (machine learning o aprendizaje automático) o lo que realmente va a revolucionar la IA, el deep learning (aprendizaje profundo), que se basa en redes neuronales. Primero creas la red neuronal con su capa, coges los datos, estableces qué tiene que aprender y luego se entrena. Yo trabajo en inferencia relacional: tomo un segmento del algoritmo que alguien haya entrenado, lo traigo a otro entorno y le meto otros datos que no tengan nada que ver con los anteriores. Por ejemplo: puedes pedirle a un algoritmo de reconocimiento de voz que busque quién se ha podido contagiar de coronavirus en un área determinada. Utilizar ese cerebro que has construido para trabajar en otras cosas, hacer que una red neuronal muy potente tenga aplicaciones alternativas: esa es la nueva gran potencialidad de la IA. Volviendo al coronavirus, se le puede pedir al algoritmo que mida ocasiones de contacto y enseñarle, por ejemplo, que estar a menos de dos metros de alguien no es problema si hay un tabique en medio o si quien está tan cerca es tu pareja.

¿Cree que las apps de trazado serán útiles frente a un posible rebrote?

Esas apps logran enriquecer los entornos de datos que tenemos porque ayudan a identificar puntos de contagio y a los supercontagiadores. Es muy importante ver quiénes son y cuál es el ratio de contagio. La gente es muy rutinaria: solemos pasar por los mismos sitios a las mismas horas. Mediante mediciones podemos saber que la media de interacción con extraños en los lugares públicos es de, por ejemplo, tres personas por individuo. Los datos pueden servir para acotar a los supercontagiadores, los que se cruzan con 20 personas o más. Saber dónde están y con qué densidad de población es más probable encontrarlos puede ayudar a las administraciones a tomar medidas. No necesitamos saber quiénes son, sino su perfil para poder inferir.

¿Confía en que las apps de rastreo tengan un papel relevante en Europa?

Estas apps funcionaron en Singapur o Taiwán en parte porque se combinaron con kits de detección. Habrá que suplementar el trazado con otro tipo de herramientas, como los oxímetros, los medidores del oxígeno en sangre que usan diabéticos o asmáticos.

Hay quien opina que las apps de rastreo son una fuente más de invasión en la privacidad de las personas.

Al final estamos hablando de una API descentralizada, al menos en el caso de las que se están desarrollando en Europa. El que lo sabe todo sobre ti ahora mismo es tu operador móvil. Y si tu móvil funciona con Android, usas Gmail y el entorno de aplicaciones de Google, esa compañía sabe más de ti que nadie. Y no es la única. ¿Qué cree la gente que han estado haciendo Apple, Telefónica o Vodafone todos estos años?


Source link