Ícono del sitio La Neta Neta

Facebook prueba controles de News Feed que permiten a las personas ver menos de grupos y páginas

Facebook ofrece a los creadores enlaces de suscripción personalizados para evitar las tarifas de Apple

Facebook anunció el jueves que está realizando una prueba para dar a los usuarios un poco más de control sobre lo que ven en la plataforma.

Créditos de imagen: Facebook

La prueba se pondrá en marcha en la aplicación de Facebook para usuarios de habla inglesa. Agrega tres submenús en el menú de Facebook para administrar lo que aparece en la sección de noticias: amigos y familiares, grupos y páginas y figuras públicas. Los usuarios de la prueba pueden optar por mantener la proporción de esas publicaciones en su feed en “normal” o cambiarla a más o menos, según sus preferencias.

Cualquiera en la prueba puede hacer lo mismo con los temas, designando las cosas que le interesan o las que preferiría no ver. En una publicación de blog, Facebook dice que la prueba afectará a “un pequeño porcentaje de personas” en todo el mundo antes de que la prueba se expanda gradualmente en las próximas semanas.

Facebook también ampliará una herramienta que permite a los anunciantes excluir su contenido de ciertos dominios temáticos, lo que permite a las marcas optar por no aparecer junto a “noticias y política”, “temas sociales” y “crimen y tragedia”. “Cuando un anunciante selecciona uno o más temas, su anuncio no se entregará a las personas que recientemente se relacionaron con esos temas en su News Feed”, escribió la compañía en una publicación de blog.

Los algoritmos de Facebook son conocidos por promover contenido incendiario y desinformación peligrosa. Dado eso, Facebook, y su empresa matriz recién nombrada Meta, están bajo una creciente presión regulatoria para limpiar la plataforma y hacer que sus prácticas sean más transparentes. Mientras el Congreso evalúa soluciones que podrían dar a los usuarios más control sobre lo que ven y eliminar parte de la opacidad en torno al contenido algorítmico, es probable que Facebook tenga la esperanza de que aún queda tiempo para autorregularse.

El mes pasado ante el Congreso, la denunciante de Facebook, Frances Haugen, llamó la atención sobre las formas en que los algoritmos opacos de Facebook pueden resultar peligrosos, particularmente en países más allá de los mercados más examinados de la compañía.

Incluso dentro de los EE. UU. y Europa, la decisión de la compañía de priorizar la participación en sus sistemas de clasificación de News Feed permitió que el contenido divisivo y las publicaciones políticamente incendiarias se dispararan.

“Una de las consecuencias de cómo Facebook está eligiendo ese contenido hoy es que está optimizando el contenido que genera participación o reacción”, dijo Haugen en “60 Minutes” el mes pasado. “Pero su propia investigación muestra que el contenido que es odioso, que es divisivo, que es polarizador, es más fácil inspirar a las personas a la ira que a otras emociones”.


Source link
Salir de la versión móvil