Ícono del sitio La Neta Neta

Facebook documenta parcialmente su sistema de recomendación de contenido

Max Schrems on the EU court ruling that could cut Facebook in two

Los sistemas de recomendación algorítmica en sitios de redes sociales como YouTube, Facebook y Twitter, han asumido gran parte de la culpa por la difusión de información errónea, propaganda, incitación al odio, teorías de conspiración y otros contenidos dañinos. Facebook, en particular, ha sido criticado en los últimos días por permitir que los grupos de conspiración de QAnon prosperen en su plataforma y por ayudar a los grupos de milicias a aumentar la membresía. En la actualidad, Facebook está intentando combatir las afirmaciones de que sus sistemas de recomendación tienen alguna culpa por la forma en que las personas están expuestas a contenido perturbador, objetable, peligroso, engañoso y falso.

La compañía, por primera vez, ha hecho público cómo funcionan sus pautas de recomendación de contenido.

En la nueva documentación disponible en el Centro de ayuda de Facebook y el Centro de ayuda de Instagram, la compañía detalla cómo funcionan los algoritmos de Facebook e Instagram para filtrar contenido, cuentas, páginas, grupos y eventos de sus recomendaciones.

Actualmente, Facebook Las sugerencias pueden aparecer como Páginas que le pueden gustar, publicaciones “Sugeridas para usted” en News Feed, Personas que tal vez conozca o Grupos a los que debería unirse. Las sugerencias de Instagram se encuentran en Instagram Explore, Cuentas que le pueden gustar e IGTV Discover.

La compañía dice que las pautas existentes de Facebook han estado vigentes desde 2016 bajo una estrategia a la que hace referencia como “eliminar, reducir e informar”. Esta estrategia se enfoca en eliminar contenido que viola los Estándares de la Comunidad de Facebook, reducir la difusión de contenido problemático que no viola sus estándares e informar a las personas con información adicional para que puedan elegir en qué hacer clic, leer o compartir, explica Facebook.

Las pautas de recomendación generalmente caen dentro de los esfuerzos de Facebook en el área de “reducción” y están diseñadas para mantener un estándar más alto que los estándares comunitarios de Facebook, porque empujan a los usuarios a seguir nuevas cuentas, grupos, páginas y similares.

Facebook, en la nueva documentación, detalla cinco categorías clave que no son elegibles para recomendaciones. Las pautas de Instagram son similares. Sin embargo, la documentación no ofrece una visión profunda de cómo Facebook realmente elige cómo elige qué recomendar a un usuario determinado. Esa es una pieza clave para comprender la tecnología de recomendación, y una que Facebook omitió intencionalmente.

Una categoría obvia de contenido que muchos no son elegibles para recomendación incluye aquellos que obstaculizarían la “capacidad de Facebook para fomentar una comunidad segura”, como el contenido centrado en autolesiones, suicidio, trastornos alimentarios, violencia, contenido sexualmente explícito y regulado como el tabaco. o drogas, contenido compartido por cuentas o entidades no recomendables.

Facebook también afirma no recomendar contenido sensible o de baja calidad, contenido que los usuarios frecuentemente dicen que no les gusta y contenido asociado con publicaciones de baja calidad. Estas categorías adicionales incluyen cosas como clickbait, modelos comerciales engañosos, préstamos de día de pago, productos que hacen afirmaciones exageradas sobre salud u ofrecen “curas milagrosas”, contenido que promueve procedimientos cosméticos, concursos, obsequios, cebo de participación, contenido no original robado de otra fuente, contenido de sitios web que obtener una cantidad desproporcionada de clics de Facebook en comparación con otros lugares en la web, noticias que no incluyen información transparente sobre la autoría o el personal.

Además, Facebook afirma que no recomendará contenido falso o engañoso, como aquellos que hacen afirmaciones que los verificadores de hechos independientes consideran falsas, información errónea relacionada con vacunas y contenido que promueve el uso de documentos fraudulentos.

Dice que también “tratar” no recomendar cuentas o entidades que hayan violado recientemente las Normas de la comunidad, contenido compartido que Facebook intenta no recomendar, publique información errónea relacionada con vacunas, haya comprado “Me gusta”, se le haya prohibido publicar anuncios, haya publicado información falsa o esté asociado con movimientos vinculado a la violencia.

La última afirmación, por supuesto, sigue a las noticias recientes de que un Evento de Facebook de la milicia de Kenosha permaneció en la plataforma después de haber sido marcado 455 veces después de su creación, y había sido aprobado por 4 moderadores como contenido no violatorio. La página asociada había emitido un “llamado a las armas” y recibió comentarios sobre personas que preguntaban qué tipos de armas llevar. Al final, dos personas murieron y una tercera resultó herida en las protestas en Kenosha, Wisconsin, cuando un joven de 17 años armado con un rifle de estilo AR-15 rompió el toque de queda, cruzó las fronteras estatales y disparó contra los manifestantes.

Dado el historial de Facebook, vale la pena considerar qué tan bien Facebook es capaz de cumplir con sus propias pautas establecidas. Muchas personas han encontrado el camino hacia lo que debería ser contenido no elegible, como teorías de conspiración, contenido de salud peligroso, información errónea sobre COVID-19 y más al hacer clic en sugerencias en momentos en que las pautas fallaron. QAnon creció gracias a las recomendaciones de Facebook, se ha informado.

También vale la pena señalar que hay muchas áreas grises que pautas como estas no cubren.

Los grupos de milicias y las teorías de la conspiración son solo un par de ejemplos. En medio de la pandemia, los usuarios de EE. UU. Que no estuvieron de acuerdo con las directrices del gobierno sobre el cierre de empresas pueden verse fácilmente apuntados hacia varios grupos de “reapertura” donde los miembros no solo discuten sobre política, sino que se jactan abiertamente de no usar máscaras en público o incluso cuando se les pide en su lugar de trabajo. Ofrecen consejos sobre cómo salirse con la suya sin usar máscaras y celebran sus éxitos con selfies. Es posible que estos grupos no infrinjan las reglas técnicamente solo con su descripción, sino que fomentan un comportamiento que constituye una amenaza para la salud pública.

Mientras tanto, incluso si Facebook no recomienda directamente un grupo, una búsqueda rápida de un tema lo dirigirá a lo que de otro modo sería contenido no elegible dentro del sistema de recomendación de Facebook.

Por ejemplo, una búsqueda rápida de la palabra “vacunas” sugiere actualmente varios grupos enfocados en lesiones por vacunas, curas alternativas y contenido general anti-vax. Estos incluso superan en número al contenido pro-vax. En un momento en que los científicos del mundo están tratando de desarrollar una protección contra el nuevo coronavirus en forma de vacuna, permitir a los anti-vacunas un foro público masivo para difundir sus ideas es solo un ejemplo de cómo Facebook está permitiendo la difusión de ideas que pueden en última instancia, convertirse en una amenaza para la salud pública mundial.

Sin embargo, la pregunta más complicada es ¿dónde traza Facebook la línea en términos de vigilar a los usuarios que tienen estas discusiones en lugar de favorecer un entorno que apoye la libertad de expresión? Con pocas regulaciones gubernamentales vigentes, Facebook finalmente puede tomar esta decisión por sí mismo.

Las recomendaciones son solo una parte del sistema de participación general de Facebook, y a menudo se culpa de dirigir a los usuarios a contenido dañino. Pero gran parte del contenido dañino que encuentran los usuarios podrían ser aquellos grupos y páginas que aparecen en la parte superior de los resultados de búsqueda de Facebook cuando los usuarios recurren a Facebook para obtener información general sobre un tema. El motor de búsqueda de Facebook favorece el compromiso y la actividad, como cuántos miembros tiene un grupo o la frecuencia con la que publican los usuarios, no qué tan cerca se alinea su contenido con las verdades aceptadas o las pautas médicas.

Los algoritmos de búsqueda de Facebook no están documentados de manera similar con tanto detalle.




Source link

Salir de la versión móvil