Ícono del sitio La Neta Neta

Facebook hace una pausa en las recomendaciones algorítmicas para grupos políticos y sociales

En una audiencia antimonopolio, Zuckerberg admite que Facebook ha copiado su competencia.

A pocos días de las elecciones estadounidenses, Facebook suspendió silenciosamente una de sus características más preocupantes.

Durante la audiencia del miércoles en el Senado, el senador Ed Markey le preguntó al director ejecutivo de Facebook, Mark Zuckerberg, sobre los informes de que su compañía sabía desde hace mucho tiempo que las recomendaciones de su grupo empujan a la gente hacia contenido más extremo. Zuckerberg respondió que la compañía había desactivado esa función para ciertos grupos, un hecho que Facebook no había anunciado previamente.

“Senador, hemos dado el paso de detener las recomendaciones en grupos para todos los grupos de contenido político o social como medida de precaución”, dijo Zuckerberg a Markey.

TechCrunch se acercó a Facebook con preguntas sobre qué tipo de grupos se verían afectados y cuánto tiempo se suspenderían las recomendaciones en ese momento, pero no recibió una respuesta inmediata. Facebook confirmó por primera vez el cambio a BuzzFeed News el viernes.

“Esta es una medida que implementamos antes del día de las elecciones”, dijo la portavoz de Facebook Liz Bourgeois a TechCrunch en un correo electrónico. “Evaluaremos cuándo levantarlos después, pero son temporales”.

El paso de precaución deshabilitará las recomendaciones para grupos de problemas políticos y sociales, así como cualquier grupo nuevo que se cree durante la ventana de tiempo. Facebook se negó a proporcionar detalles adicionales sobre los tipos de grupos que se verán afectados y que no se verán afectados por el cambio o lo que tomó la decisión.

A los investigadores que se centran en el extremismo les preocupa durante mucho tiempo que las recomendaciones algorítmicas en las redes sociales empujen a las personas hacia contenidos más extremos. Facebook ha sido consciente de este fenómeno desde al menos 2016, cuando una presentación interna sobre el extremismo en Alemania observó que “el 64% de todos los grupos extremistas se unen a nuestras herramientas de recomendación”. A la luz del historial de la función, algunos grupos anti-odio celebraron la decisión de Facebook de presionar el botón de pausa el viernes.

“Es una buena noticia que Facebook deshabilite las recomendaciones de grupo para todo el contenido político o grupos de temas sociales como precaución durante esta temporada de elecciones. Creo que podría resultar en una experiencia más segura para los usuarios en este momento crítico ”, dijo a TechCrunch el CEO de la Liga Anti-Difamación, Jonathan A. Greenblatt. “Y, sin embargo, más allá de la próxima semana, es necesario hacer mucho más a largo plazo para garantizar que los usuarios no estén expuestos a ideologías extremistas en las plataformas de Facebook “.

En Facebook, las recomendaciones algorítmicas pueden llevar a los usuarios que coquetean con puntos de vista extremos e ideas violentas a grupos sociales donde sus ideologías peligrosas pueden amplificarse y organizarse. Antes de ser prohibido por la red social, el violento grupo de extrema derecha Proud Boys confiaba en los grupos de Facebook para su relativamente sofisticada operación de reclutamiento nacional. Los miembros del grupo que conspiró para secuestrar a la gobernadora de Michigan, Gretchen Whitmer, también utilizaron grupos de Facebook para organizarse, según una declaración jurada del FBI.

Si bien parece que la decisión de Facebook de omitir algunas recomendaciones grupales es temporal, la compañía ha tomado una serie de decisiones sin precedentes para limitar el contenido peligroso en los últimos meses, posiblemente por temor a que las elecciones de 2020 la sumerjan nuevamente en una controversia política. Solo en los últimos tres meses, Facebook ha tomado medidas enérgicas contra QAnon, las milicias y el lenguaje utilizado por la campaña de Trump que podría resultar en intimidación de los votantes, todas posturas sorprendentes considerando su inacción de larga data y su profundo temor a decisiones que podrían percibirse como partidistas.

Después de años de relativa inacción, la compañía ahora parece estar tomando en serio parte del extremismo que ha incubado durante mucho tiempo, aunque es probable que en los próximos días se ponga a prueba su nuevo conjunto de políticas de protección.


Source link
Salir de la versión móvil