Ícono del sitio La Neta Neta

Facebook probará la degradación del contenido político en News Feed

En la represión ampliada, Facebook aumenta las sanciones para los grupos que infringen las reglas y sus miembros

Después de años de optimizar sus productos para el compromiso, sin importar los costos, Facebook Anunciado hoy “probará” cambios en su News Feed enfocados en reducir la distribución de contenido político. La compañía calificó que estas pruebas serán temporales, afectarán a un pequeño porcentaje de personas y solo se ejecutarán en mercados selectos, incluidos EE. UU., Canadá, Brasil e Indonesia.

El objetivo de los experimentos, dice Facebook, es explorar una variedad de formas en que puede clasificar el contenido político en el News Feed usando diferentes señales, para decidir qué enfoque puede tomar en el futuro.

También señala que la información de COVID-19 de organizaciones de salud autorizadas como los CDC y la OMS, así como las agencias y servicios de salud nacionales y regionales, estarán exentos de ser degradados en el News Feed durante estas pruebas. Del mismo modo, el contenido de las agencias gubernamentales oficiales no se verá afectado.

Las pruebas también pueden incluir un componente de encuesta, donde Facebook pregunta a los usuarios afectados sobre su experiencia.

El anuncio de Facebook de las pruebas está destinado a sonar decepcionante porque cualquier cambio a gran escala sería una especie de admisión de culpa. Facebook tiene la capacidad de realizar cambios mucho mayores: cuando quiso reducir el contenido del editor, lo hizo. diezmar una serie de empresas de medios a lo largo del camino. En años anteriores, también tomó medidas más duras contra sitios de baja calidad, raspadores, clickbait, spam y más.

La noticia de las pruebas de Facebook llega en un momento en que la gente cuestiona la influencia y dirección de las redes sociales. Un número creciente de usuarios de redes sociales ahora cree que las plataformas tecnológicas han estado desempeñando un papel en radicalizando gente, ya que sus algoritmos promueven visiones desequilibradas del mundo, aíslan a las personas en las burbujas de las redes sociales y permiten que los discursos peligrosos y la información errónea se vuelvan virales.

En una encuesta de esta semana, reportado por Axios, la mayoría de los estadounidenses dijeron que ahora creen que las redes sociales se radicalizan, y el 74% también dijo que la desinformación es un problema extremadamente o muy grave. Otro 76% cree que las redes sociales fueron al menos parcialmente responsables de los disturbios en el Capitolio, que 7 de cada 10 piensan que es el resultado de un comportamiento extremo sin control en línea, señaló el informe.

Mientras tanto, un tercio de los estadounidenses recibe regularmente sus noticias de Facebook, según un estudio del Pew Research Center, lo que significa que a menudo ahora están leyendo puntos de vista más extremos de los editores marginales, encontró un estudio relacionado de Pew.

En otras partes del mundo, Facebook ha sido acusado de exacerbar los disturbios políticos, incluidos los disturbios mortales en Indonesia. genocidio en Myanmar, el difusión de información errónea en Brasil durante las elecciones y más.

Facebook, sin embargo, sostiene hoy que el contenido político es una pequeña parte de las noticias (por ejemplo, el 6% de lo que ve la gente en los EE. UU.), Un intento de desviar cualquier culpa por el estado del mundo, al tiempo que posiciona el cambio de clasificación como justo algo que los comentarios de los usuarios exigen que Facebook explore.


Source link
Salir de la versión móvil