Sistemas de recomendación algorítmica en sitios de redes sociales como YoutubeFacebook y Twitter han asumido gran parte del culpa para la difusión de información errónea, propaganda, incitación al odio, teorías conspirativas y otros contenidos nocivos. Facebook, en particular, ha sido criticado en los últimos días por permitir que los grupos de conspiración de QAnon prosperen en su plataforma y para ayudar a los grupos de milicias a escalar la membresía. Hoy, Facebook está tratando de combatir las afirmaciones de que sus sistemas de recomendación tienen algún tipo de culpa por la forma en que las personas están expuestas a contenido preocupante, objetable, peligroso, engañoso y falso.
La compañía, por primera vez, ha hecho público cómo funcionan sus pautas de recomendación de contenido.
En nueva documentación disponible en Centro de ayuda de Facebook y Centro de ayuda de Instagram, la empresa detalla cómo funcionan los algoritmos de Facebook e Instagram para filtrar contenido, cuentas, páginas, grupos y eventos de sus recomendaciones.
Actualmente, las sugerencias de Facebook pueden aparecer como páginas que te pueden gustar, publicaciones “sugeridas para ti” en la sección de noticias, personas que quizás conozcas o grupos a los que deberías unirte. Las sugerencias de Instagram se encuentran en Explorar Instagram, Cuentas que te pueden gustar e IGTV Discover.
La compañía dice que las pautas existentes de Facebook han estado vigentes desde 2016 bajo una estrategia a la que hace referencia como “eliminar, reducir e informar.” Esta estrategia se enfoca en eliminar contenido que viola los estándares comunitarios de Facebook, reducir la difusión de contenido problemático que no viola sus estándares e informar a las personas con información adicional para que puedan elegir en qué hacer clic, leer o compartir, explica Facebook.
Las Directrices de recomendación generalmente caen dentro de los esfuerzos de Facebook en el área de “reducción” y están diseñadas para mantener un estándar más alto que los Estándares de la comunidad de Facebook, porque empujan a los usuarios a seguir nuevas cuentas, grupos, páginas y similares.
facebook, en el nueva documentacióndetalla cinco categorías clave que no son elegibles para recomendaciones. Directrices de Instagram son similares. Sin embargo, la documentación no ofrece una visión profunda de cómo Facebook elige realmente qué recomendar a un usuario determinado. Esa es una pieza clave para comprender la tecnología de recomendación, y Facebook la omitió intencionalmente.
Una categoría obvia de contenido que muchos no son elegibles para recomendación incluye aquellos que impedirían la “capacidad de Facebook para fomentar una comunidad segura”, como contenido centrado en autolesiones, suicidio, trastornos alimentarios, violencia, contenido sexualmente explícito, contenido regulado como tabaco o drogas o contenido compartido por cuentas o entidades no recomendables.
Facebook también afirma que no recomienda contenido sensible o de baja calidad, contenido que los usuarios frecuentemente dicen que no les gusta y contenido asociado con publicaciones de baja calidad. Estas categorías adicionales incluyen cosas como clickbait, modelos comerciales engañosos, préstamos de día de pago, productos que hacen afirmaciones exageradas sobre la salud u ofrecen “curas milagrosas”, contenido que promueve procedimientos cosméticos, concursos, obsequios, cebo de participación, contenido poco original. contenido robado de otra fuentecontenido de sitios web que obtienen una cantidad desproporcionada de clics de Facebook en comparación con otros lugares en la web o noticias que no incluyen información transparente sobre la autoría o el personal.
Además, Facebook afirma que no recomendará contenido falso o engañoso, como aquellos que hacen afirmaciones que los verificadores de hechos independientes consideran falsas, información errónea relacionada con las vacunas y contenido que promueve el uso de documentos fraudulentos.
Dice que también “intentará” no recomendar cuentas o entidades que recientemente violaron los Estándares de la comunidad, compartió contenido que Facebook intenta no recomendar, publicó información errónea relacionada con la vacuna, participó en la compra de “Me gusta”, se le prohibió publicar anuncios, publicó información falsa. información o están asociados a movimientos ligados a la violencia.
La última afirmación, por supuesto, sigue a las noticias recientes de que un evento de Facebook de la milicia de Kenosha se mantuvo en la plataforma después de haber sido marcado 455 veces después de su creación, y cuatro moderadores lo habían aprobado como contenido no infractor. La página asociada tenía emitido un “llamado a las armas” y recibió comentarios sobre personas que preguntaban qué tipos de armas llevar. En última instancia, dos personas murieron y una tercera resultó herida en las protestas en Kenosha, Wisconsin, cuando un joven de 17 años armado con un rifle estilo AR-15 rompió el toque de queda, cruzó las fronteras estatales y disparó contra los manifestantes.
Dado el historial de Facebook, vale la pena considerar qué tan bien Facebook es capaz de cumplir con sus propias pautas establecidas. Mucha gente ha encontrado el camino hacia lo que debería ser contenido no elegible, como teorías de conspiración, contenido peligroso para la salud, información errónea sobre el COVID-19 y más al hacer clic en las sugerencias en momentos en que fallaron las pautas. QAnon creció gracias a las recomendaciones de Facebook, ha sido reportado.
También vale la pena señalar que hay muchas áreas grises que las pautas como estas no cubren.
Los grupos de milicias y las teorías de la conspiración son solo un par de ejemplos. En medio de la pandemia, los usuarios de EE. UU. que no estaban de acuerdo con las pautas del gobierno sobre el cierre de negocios pueden verse señalados fácilmente hacia varios grupos de “reapertura” donde los miembros no solo hablan de política, sino que alardean abiertamente de no usar máscaras en público o incluso cuando es necesario. en su lugar de trabajo. Ofrecen consejos sobre cómo salirse con la suya sin usar máscaras y celebran sus éxitos con selfies. Es posible que estos grupos técnicamente no rompan las reglas solo por su descripción, pero alientan comportamientos que constituyen una amenaza para la salud pública.
Mientras tanto, incluso si Facebook no recomienda directamente un grupo, una búsqueda rápida de un tema lo dirigirá a lo que de otro modo sería contenido no elegible dentro del sistema de recomendación de Facebook.
Por ejemplo, una búsqueda rápida de la palabra “vacunas” actualmente sugiere una serie de grupos enfocados en lesiones por vacunas, curas alternativas y contenido general anti-vacunas. Estos incluso superan en número al contenido pro-vax. En un momento en que los científicos del mundo están tratando de desarrollar una protección contra el nuevo coronavirus en forma de vacuna, permitir que los antivacunas tengan un foro público masivo para difundir sus ideas es solo un ejemplo de cómo Facebook está permitiendo la difusión de ideas que pueden convertirse en última instancia en una amenaza para la salud pública mundial.
La pregunta más complicada, sin embargo, es ¿dónde traza Facebook la línea en términos de vigilar a los usuarios que tienen estas discusiones en lugar de favorecer un entorno que apoye la libertad de expresión? Con pocas regulaciones gubernamentales vigentes, Facebook finalmente puede tomar esta decisión por sí mismo.
Las recomendaciones son solo una parte del sistema general de participación de Facebook y, a menudo, se las culpa por dirigir a los usuarios a contenido dañino. Pero gran parte del contenido dañino que encuentran los usuarios podría ser esos grupos y páginas que aparecen en la parte superior de los resultados de búsqueda de Facebook cuando los usuarios recurren a Facebook para obtener información general sobre un tema. El motor de búsqueda de Facebook favorece el compromiso y la actividad, como cuántos miembros tiene un grupo o la frecuencia con la que los usuarios publican, no qué tan cerca se alinea su contenido con las verdades aceptadas o las pautas médicas.
Los algoritmos de búsqueda de Facebook no están siendo documentado de manera similar con tanto detalle.