Ícono del sitio La Neta Neta

La falacia del algoritmo omnipotente y otras ideas equivocadas que tenemos sobre estos sistemas

SEAN GLADWELL (Getty Images)

Cuando Sun Tzu remarcó en El arte de la guerra la necesidad conocer bien al enemigo de uno, no había algoritmos computacionales por los que preocuparse. Dos milenios después los hemos visto asignar mayores posibilidades de reincidir los presos de colectivos minoritarios, despedir a 150 personas en un segundo y e incluso participar en conflictos bélicos. Y no los conocemos. Un estudio realizado por investigadores la Universidad de Ámsterdam con una muestra de 2.106 personas ha encontrado que más de la mitad de los encuestados acepta que los algoritmos son independientes de la actividad humana, no tienen sesgos, tienen el mismo nivel de razonamiento crítico e inteligencia que los humanos, y nos van a reemplazar. Un tampoco desdeñable 43% opina que estos sistemas pueden resolver “todos los problemas de la sociedad”.

“Queríamos saber si la gente tiene una idea correcta de lo que son los algoritmos y lo que hacen, porque topan con ellos cada día: en las redes sociales, en sus teléfonos, cuando ven la tele…”, explica Brahim Zarouali, investigador centrado en el estudio de las comunicaciones y tecnologías persuasivas. Lo que no esperaban era encontrarse tal nivel de desconocimiento. “Esto nos pareció realmente alarmante”, asegura. Además, el fenómeno es más pronunciado en ciertos grupos demográficos, con mayor prevalencia de estas ideas equivocadas entre la gente mayor, aquellos con niveles de educación inferiores y las mujeres.

La investigación se centra en los algoritmos que intervienen en las plataformas de consumo de información y que pueden personalizar y adaptar la información que se muestra a cada persona, pero el docente no descarta que las mismas confusiones que han identificado en este caso se extiendan a otras aplicaciones de los mismos sistemas.

¿Cuáles es el coste de estas lagunas en cuanto al conocimiento de unos sistemas cada vez más presentes en nuestras vidas? “Nuestro argumento es que podrían incrementar las brechas digitales en nuestra sociedad. Es muy importante que todos tengamos las mismas habilidades y conocimientos para beneficiarnos de la tecnología y los algoritmos”, razona Zarouali.

Ojos que no ven

Zarouali y su equipo sitúan el origen del problema en la naturaleza intangible de estos sistemas, que operan en segundo plano, sin que nadie vea sus entresijos y, en muchos casos, como cajas negras cuyas decisiones no pueden ser explicadas. “Esto complica que la población general desarrolle una idea correcta de lo que pueden hacer los algoritmos y cómo funcionan”, resume el investigador.

¿Qué debemos saber sobre ellos? El estudio toma como punto de partida algunas ideas básicas. Si atendemos a la definición de Tarleton Gillespie, los algoritmos pueden retratarse como procedimientos codificados para transformar grandes cantidades de datos de entrada en el resultado deseado a través de cálculos específicos. Una versión resumida, y más intencional de esta descripción encierran las palabras de Cathy O’Neall, “los algoritmos son opiniones encerradas en matemáticas”.

Para los investigadores también es importante tener en cuenta el contexto en el que suelen operar estos sistemas, que se han convertido en partes fundamentales de la ventaja competitiva de muchas empresas tecnológicas. “Esto explica por qué muchas compañías son reacias a exponer sus códigos algorítmicos al mundo exterior”, señalan. “Los algoritmos pueden no solo mostrar los sesgos de quienes los diseñaron y los manejan, sino también los valores y preferencias de las compañías que los ofrecen”. En cuanto a su capacidad para equiparar nuestra inteligencia, reemplazarnos o resolver cualquier problema, la realidad es que sus habilidades están, al menos por ahora, limitadas al muy eficiente desempeño de tareas concretas.

La alfabetización algorítmica, explica Zarouali, es clave para que podamos tomar un papel activo en el escrutinio de estos sistemas y resistirnos al juicio de los que nos resultan problemáticos o beneficiarnos de los servicios de aquellos que vemos alineados con nuestros intereses. No en vano, pese a lo alarmante de los daños que pueden causar en su papel de enemigos, estas herramientas también pueden servirnos para predecir un ictus con dos años de antelación, recuperar obras de arte que se creían perdidas o minimizar el riesgo de contagio de la covid-19. “Es importante tener una ciudadanía digital crítica en todas las capas de la sociedad”, sentencia el docente.

Los investigadores insisten en que la persistencia de estas ideas equivocadas puede dejar ver sus efectos de dos maneras: por un lado, el exceso de celo puede empujarnos a rechazarlos injustificadamente sobre la base de una visión distópica del futuro; por otro la confianza desproporcionada en ellos puede contribuir a reforzar estereotipos y desigualdades, y a la difusión de contenidos manipulados como videos falsos hiperrealistas (deepfakes). “La principal solución es la educación para la alfabetización digital. En estas iniciativas es importante que se le enseñe a la gente qué son los algoritmos y que se les ofrezcan estrategias de protección para enfrentar sus consecuencias dañinas. Del mismo modo, se les debería empoderar para que puedan también puedan beneficiarse de ellos”.

Puedes seguir a EL PAÍS TECNOLOGÍA en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.




Source link

Salir de la versión móvil