El CEO de Facebook, Mark Zuckerberg, organiza la primera prueba de Live Audio Rooms en EE. UU.

Facebook lanza una serie de pruebas para informar cambios futuros en sus algoritmos de News Feed

Facebook puede estar reconfigurando sus algoritmos de News Feed. Después de ser a la parrilla por los legisladores sobre el papel que jugó Facebook en el ataque al Capitolio de EE. UU., la empresa Anunciado esta mañana se implementará una serie de pruebas de clasificación de News Feed que pedirán a los usuarios que proporcionen comentarios sobre las publicaciones que están viendo, que luego se incorporarán al proceso de clasificación de News Feed de Facebook. Específicamente, Facebook buscará saber qué contenido encuentra inspirador la gente, qué contenido quieren ver menos (como política) y qué otros temas generalmente les interesan, entre otras cosas.

Esto se hará a través de una serie de pruebas globales, una de las cuales incluirá una encuesta directamente debajo de la publicación que pregunta: “¿Cuánto te inspiró esta publicación?”, Con el objetivo de ayudar a mostrar a más personas las publicaciones de un naturaleza inspiradora más cerca en la parte superior de la sección de noticias.

Créditos de imagen: Facebook

Otra prueba funcionará con la experiencia de Facebook News Feed para reflejar lo que la gente quiere ver. Hoy en día, Facebook da prioridad a mostrarte contenido de amigos, grupos y páginas que has elegido seguir, pero ha elaborado algorítmicamente una experiencia de qué publicaciones mostrarte y cuándo se basa en una variedad de señales. Esto incluye señales tanto implícitas como explícitas, como cuánto interactúas con el contenido de esa persona (o página o grupo) de forma regular, así como si los has agregado como “amigo cercano” o “favorito”, lo que indica que quieres para ver más de su contenido que otros, por ejemplo.

Sin embargo, solo porque eres cercano a alguien en la vida real, eso no significa que te guste lo que publica en Facebook. Esto ha separado a familias y amigos en los últimos años, ya que las personas descubrieron a través de las redes sociales cómo las personas que creían conocer realmente veían el mundo. Ha sido un ajuste de cuentas doloroso para algunos. Facebook tampoco ha logrado solucionar el problema. Hoy en día, los usuarios todavía se desplazan por las fuentes de noticias que refuerzan sus puntos de vista, sin importar cuán problemático sea. Y con la creciente marea de desinformación, el News Feed ha pasado de colocar a los usuarios en una burbuja de filtro a presentar un completo Realidad Alterna para algunos, a menudo poblada por teorías de conspiración.

La tercera prueba de Facebook no necesariamente aborda este problema de frente, sino que busca obtener comentarios sobre lo que los usuarios quieren ver en su conjunto. Facebook dice que comenzará a preguntar a las personas si quieren ver más o menos publicaciones sobre ciertos temas, como cocina, deportes, política y más. Según los comentarios colectivos de los usuarios, Facebook ajustará sus algoritmos para mostrar más contenido que las personas dicen que les interesa y menos publicaciones sobre temas que no quieren ver.

El área de la política, en concreto, ha sido un problema para Facebook. La red social durante años se ha encargado de ayudar a avivar las llamas del discurso político, polarizar y radicalizar a los usuarios a través de sus algoritmos, distribuir información errónea a escala y fomentar un ecosistema de clickbait divisivo, ya que los editores buscaban el compromiso en lugar de la justicia y el equilibrio al informar. las noticias. Ahora hay medios totalmente sesgados y subjetivos que se hacen pasar por fuentes de noticias que se benefician de algoritmos como el de Facebook, de hecho.

Poco después del ataque al Capitolio, Facebook anunció que intente tomar medidas drásticas contra el contenido político en el News Feed para un pequeño porcentaje de personas en los EE. UU., Canadá, Brasil e Indonesia, durante un período de tiempo durante las pruebas.

Ahora, la compañía dice que trabajará para comprender mejor qué contenido se vincula a las experiencias negativas de News Feed, incluido el contenido político. En este caso, Facebook puede preguntar a los usuarios en publicaciones con muchas reacciones negativas qué tipo de contenido quieren ver menos. Esto se hará a través de encuestas en ciertas publicaciones, así como a través de sesiones de investigación en curso donde se invita a las personas a hablar sobre su experiencia en News Feed, dijo Facebook a TechCrunch.

También incluirá de forma más destacada la opción de ocultar las publicaciones que considere “irrelevantes, problemáticas o irritantes”. Aunque esta función existía antes, ahora podrá tocar una X en la esquina superior derecha de una publicación para ocultarla de la sección de noticias, si está en el grupo de prueba, y ver menos como esta en el futuro, por un tiempo. experiencia más personalizada.

Créditos de imagen: Facebook

No está claro que permitir que los usuarios elijan sus temas sea la mejor manera de resolver los problemas más importantes con publicaciones negativas, contenido divisivo o información errónea, aunque esta prueba se trata menos de lo último y más de hacer que las noticias se “sientan” más positivas. .

A medida que se recopilen los datos de las pruebas, Facebook incorporará los hallazgos en sus algoritmos de clasificación de News Feed. Pero no está claro hasta qué punto ajustará el algoritmo a nivel mundial en lugar de simplemente personalizar la experiencia para los usuarios finales de forma más individual a lo largo del tiempo. La compañía le dice a TechCrunch que los datos de la encuesta se recopilarán de un pequeño porcentaje de usuarios que se colocan en los grupos de prueba, que luego se utilizarán para entrenar un modelo de aprendizaje automático.

También explorará formas de brindar a las personas controles más directos sobre el tipo de contenido que ven en las noticias en el futuro.

La compañía dice que las pruebas se realizarán durante los próximos meses.


Source link