Ícono del sitio La Neta Neta

Nuevos documentos filtrados de Facebook muestran el peligro de la viralidad


El Partido Patriota empezó a reclutar partidarios en Facebook después del asalto al Capitolio del 6 de enero. Pretendían convertirse en una alternativa al Partido Republicano. “Crecíamos rápido, teníamos muchos seguidores”, dice el tesorero de la organización. Hasta que Facebook decidió cortarles la cabeza: “Logramos decapitar brotes como las palabras Partido Patriota antes de su adopción masiva”, dice un documento interno de Facebook.

Este viernes un grupo de medios estadounidenses entre los que están el Wall Street Journal, el Washington Post, el New York Times o la CNN han empezado a publicar nuevos artículos a partir del material extra que la garganta profunda Frances Haugen se llevó de la empresa, también compartido con la Comisión de Bolsa y Valores de EE UU. El Journal hizo una larga serie llamada “Facebook Files” en septiembre. Ahora, a petición de Haugen, el resto de documentos se ha compartido con un grupo mayor de periodistas. Las miles de páginas completas de los documentos originales, de momento, no han sido publicados. Haugen comparece este lunes en el Parlamento británico.

Los nuevos documentos no contiene por ahora ninguna revelación espectacular que vaya a hundir a Facebook de un solo golpe. Pero significan docenas nuevas de indicios que ayudan a entender la complejidad y las decisiones polémicas de una red como Facebook. También ha podido saberse que Haugen, para no ser detectada, capturó muchos de estos documentos con fotos de su móvil a la pantalla del ordenador, no con pantallazos.

Cada medio ha escogido el enfoque que ha preferido sobre los documentos. Pero todos incluyen la historia de Carol Smith, una madre conservadora moderada de 41 años de Carolina del Norte. Smith abrió una cuenta en Facebook en 2019, estaba interesada en “niños, crianza, cristianismo y comunidad” y siguió las cuentas oficiales de la cadena Fox News y del entonces presidente Donald Trump.

El primer día el algoritmo le recomendaba seguir a grupos conservadores y memes. En un par de días sus recomendaciones empezaron a radicalizarse. Al quinto día, la plataforma había arrastrado a Smith hasta QAnon, el grupo conspiranoico que cree que el mundo está dirigido por una red de pedófilos y que Trump es el salvador. Smith no siguió esas recomendaciones pero igualmente su cronología acabó llena de posts vinculados a teorías conspirativas, que violaban las normas de la compañía.

Smith sin embargo no era una usuaria real. Era un experimento interno de Facebook, que repitió con usuarios ficticios progresistas que acaban en pozos similares. El experimento no es nuevo y se ha hecho con otras redes. Aunque esta vez es distinto porque es obra de investigadores dentro de la compañía, con todas las herramientas y la capacidad de avisar de los peligros internamente.

La mayoría de medios se ha centrado en cómo Facebook celebró su éxito en controlar la desinformación en las elecciones de noviembre, pero luego ignoró el embrollo que llevó al asalto del Capitolio en enero. El debate interno sobre las consecuencias de la viralidad es sin embargo un tema de mayor calado en los documentos. De momento solo lo ha cubierto en profundidad el Journal.

El amigo de Mark

Kang-Xing Jin es amigo de Mark Zuckerberg desde sus días en la Universidad de Harvard. Es uno de los primeros empleados de la compañía. También, según los documentos, es uno de los quien más ha alertado sobre el peligro de la viralidad: “Hay un surtido creciente de investigación que muestra que los canales virales se usan más para lo malo que para lo bueno”, escribe Jin en uno de los documentos para advertir sobre los peligros de elecciones de 2020 y de lo que llama “viralidad perjudicial rampante”.

En docenas de documentos internos, revisados siempre según el Journal, ingenieros y científicos de datos de Facebook detectan que el contenido viral favorece teorías de la conspiración, bulos y discurso de odio. También, cuando más ampliamente compartido era un mensaje, la probabilidad de que fuera un contenido tóxico crecía. Los usuarios que postean muy a menudo son especialmente peligrosos según esos mismos estudios. De algún modo, parece, el algoritmo premia la constancia y la insistencia.

Durante la campaña electoral de 2020, Facebook impuso reglas que limitaran la expansión del contenido viral. Un ingeniero llego a proponer la eliminación del botón de compartir, que no fructificó.

El problema de fondo en este debate es que la viralidad implica negocio. Los usuarios están más tiempo en la plataforma, y ven más anuncios, si el contenido les resulta llamativo. Como dijo Haugen en el Congreso, el debate se resume en si Facebook antepone los beneficios a la democracia.

El Journal describe este debate en términos muy concretos. Las palabras de Jin, el amigo universitario de Zuckerberg, encontraron un duro rival: el jefe de los anuncios, John Hegeman. “Si quitamos un porcentaje pequeño de compartidos de la cronología de los usuarios, deciden volver menos a Facebook”, escribió en un documento ahora revelado. Ir menos a Facebook implica lógicamente ir más a otras plataformas o simplemente no ver anuncios en Facebook, lo que limita la capacidad de negocio de la compañía. Además, defendía Hegeman, la mayor parte del contenido viral es aceptable.

Los documentos muestran que la compañía se puso siempre del lado de Hegeman, excepto durante la campaña electoral para evitar un descalabro parecido a 2016. El éxito inicial sin embargo se complicó con el asalto al Capitolio.

Después de ese asalto, la compañía empezó a investigar a 700.000 partidarios de Stop the Steal, el movimiento digital que defiende sin pruebas que Joe Biden ganó gracias a fraude. Con ese grupo de “usuarios susceptibles” mapeado, Facebook tenía la opción de vigilar nuevas complicaciones y mandarle un tipo de contenido más inocuo: sacarles de política y darles gatitos. Estos detalles muestran el enorme poder de dirigir gustos e intereses de una plataforma tan usada como Facebook.

Investigadores en Facebook han identificado algunos llamados “pasillos de información” de cuentas páginas y redes que distribuyen contenido dañino. De este modo también puede vigilar quién ve qué y detectar a los más peligrosos.

La alternativa a tener que actuar contra entidades puntuales como el Partido Patriota es activar límites a la viralidad para todos. Así sería más difícil que organizaciones basadas en odio o mentiras emergieran con tanta facilidad gracias a viralizar sus inventos. Pero Facebook prefiere disparar contra quienes se portan mal, a riesgo de seleccionar grupos que son inocuos o menos peligrosos de lo que parece. El poder que esta estrategia confiere a Facebook es enorme.

Facebook ha actuado también contra la organización alemana Querdenken [pensamiento lateral] que no viola constantemente las políticas de Facebook y promueve la no violencia pero que las autoridades alemanas vigilan. Estas decisiones acaban finalmente en preguntas imposibles, como la que hace un investigador en un documento: hay movimientos que siguen las reglas comunitarias de Facebook pero también distribuyen contenido que “es inherentemente perjudicial y viola el espíritu de nuestras normas. ¿Qué hacemos cuando movimientos auténticos hablan de odio o deslegitiman elecciones libres?”

Puedes seguir a EL PAÍS TECNOLOGÍA en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.




Source link

Salir de la versión móvil