Ícono del sitio La Neta Neta

Facebook probará la degradación del contenido político en News Feed

Los ingresos por publicidad y el auge del comercio electrónico aumentan las ganancias de Facebook, pero los usuarios de EE. UU. Caen por el aumento de COVID

Después de años de optimizar sus productos para la participación, sin importar los costos, Facebook anunció hoy que “probará” cambios en su News Feed enfocados en reducir la distribución de contenido político. La compañía calificó que estas pruebas serán temporales, afectarán a un pequeño porcentaje de personas y solo se ejecutarán en mercados selectos, incluidos EE. UU., Canadá, Brasil e Indonesia.

El objetivo de los experimentos, dice Facebook, es explorar una variedad de formas en que puede clasificar el contenido político en el News Feed utilizando diferentes señales, para decidir qué enfoque puede tomar en el futuro.

También señala que la información de COVID-19 de organizaciones de salud autorizadas como los CDC y la OMS, así como las agencias y servicios de salud nacionales y regionales, estará exenta de ser degradada en el News Feed durante estas pruebas. Del mismo modo, el contenido de las agencias gubernamentales oficiales no se verá afectado.

Las pruebas también pueden incluir un componente de encuesta, donde Facebook pregunta a los usuarios afectados sobre su experiencia.

El anuncio de las pruebas de Facebook está destinado a sonar decepcionante porque cualquier cambio a gran escala sería una especie de admisión de culpa. Facebook tiene la capacidad de realizar cambios mucho mayores: cuando quería rebajar el contenido del editor, lo hizo, diezmando una serie de empresas de medios en el camino. En años anteriores, también tomó medidas más duras contra sitios de baja calidad, scrapers, clickbait, spam y más.

La noticia de las pruebas de Facebook llega en un momento en que las personas cuestionan la influencia y dirección de las redes sociales. Un número cada vez mayor de usuarios de las redes sociales cree ahora que las plataformas tecnológicas han desempeñado un papel en la radicalización de las personas, ya que sus algoritmos promueven visiones desequilibradas del mundo, aíslan a las personas en las burbujas de las redes sociales y permiten que los discursos peligrosos y la información errónea se vuelvan virales.

En una encuesta de esta semana, informada por Axios, la mayoría de los estadounidenses dijeron que ahora creen que las redes sociales se radicalizan, y el 74% también dijo que la desinformación es un problema extremadamente o muy grave. Otro 76% cree que las redes sociales fueron al menos parcialmente responsables de los disturbios del Capitolio, que 7 de cada 10 piensan que es el resultado de un comportamiento extremo sin control en línea, señaló el informe.

Mientras tanto, un tercio de los estadounidenses recibe regularmente sus noticias de Facebook, según un estudio del Pew Research Center, lo que significa que a menudo ahora están leyendo puntos de vista más extremos de los editores marginales, encontró un estudio relacionado de Pew.

En otras partes del mundo, Facebook ha sido acusado de exacerbar los disturbios políticos, incluidos los disturbios mortales en Indonesia, el genocidio en Myanmar, la difusión de información errónea en Brasil durante las elecciones y más.

Facebook, sin embargo, argumenta hoy que el contenido político es una pequeña cantidad de News Feed (por ejemplo, el 6% de lo que ve la gente en los EE. UU.), Un intento de desviar cualquier culpa por el estado del mundo, al tiempo que posiciona el cambio de clasificación como justo algo que los comentarios de los usuarios exigen que Facebook explore.


Source link
Salir de la versión móvil