Redes Sociales

Facebook lanza una serie de pruebas para informar cambios futuros en sus algoritmos de News Feed

Facebook puede estar reconfigurando sus algoritmos de News Feed. Después de ser interrogado por los legisladores sobre el papel que desempeñó Facebook en el ataque al Capitolio de los EE. UU., La compañía anunció esta mañana que lanzará una serie de pruebas de clasificación de News Feed que pedirán a los usuarios que brinden comentarios sobre las publicaciones que están viendo. , que luego se incorporará al proceso de clasificación de News Feed de Facebook. Específicamente, Facebook buscará saber qué contenido encuentra inspirador a las personas, qué contenido quieren ver menos (como política) y qué otros temas generalmente les interesan, entre otras cosas.

Esto se hará a través de una serie de pruebas globales, una de las cuales incluirá una encuesta directamente debajo de la publicación que pregunta, «¿cuánto te inspiró esta publicación?», Con el objetivo de ayudar a mostrar a más personas las publicaciones de un naturaleza inspiradora más cerca en la parte superior de News Feed.

Créditos de imagen: Facebook

Otra prueba funcionará con la experiencia de Facebook News Feed para reflejar lo que la gente quiere ver. Hoy en día, Facebook da prioridad a mostrarte contenido de amigos, grupos y páginas que has elegido seguir, pero ha elaborado algorítmicamente una experiencia de qué publicaciones mostrarte y cuándo se basa en una variedad de señales. Esto incluye señales tanto implícitas como explícitas, como cuánto interactúas con el contenido de esa persona (o página o grupo) de forma regular, así como si los has agregado como «amigo cercano» o «favorito», lo que indica que quieres para ver más de su contenido que otros, por ejemplo.

Sin embargo, solo porque eres cercano a alguien en la vida real, eso no significa que te guste lo que publica en Facebook. Esto ha separado a familias y amigos en los últimos años, ya que las personas descubrieron a través de las redes sociales cómo las personas que creían conocer realmente veían el mundo. Ha sido un ajuste de cuentas doloroso para algunos. Facebook tampoco ha logrado solucionar el problema. Hoy en día, los usuarios todavía se desplazan por las fuentes de noticias que refuerzan sus puntos de vista, sin importar cuán problemático sea. Y con la creciente marea de desinformación, News Feed ha pasado de simplemente colocar a los usuarios en una burbuja de filtro a presentar una realidad alternativa completa para algunos, a menudo poblada por teorías de conspiraciones.

La tercera prueba de Facebook no necesariamente aborda este problema de frente, sino que busca obtener comentarios sobre lo que los usuarios quieren ver, en su conjunto. Facebook dice que comenzará a preguntar a las personas si quieren ver más o menos publicaciones sobre ciertos temas, como cocina, deportes o política, y más. Según los comentarios colectivos de los usuarios, Facebook ajustará sus algoritmos para mostrar más contenido que las personas dicen que les interesa y menos publicaciones sobre temas que no quieren ver.

El área de la política, en concreto, ha sido un problema para Facebook. Durante años, la red social se ha encargado de ayudar a avivar las llamas del discurso político, polarizar y radicalizar a los usuarios a través de sus algoritmos, distribuir información errónea a escala y fomentar un ecosistema de clickbait divisivo, ya que los editores buscaban el compromiso en lugar de la justicia y el equilibrio al informar. las noticias. Ahora hay medios totalmente sesgados y subjetivos que se hacen pasar por fuentes de noticias que se benefician de algoritmos como el de Facebook, de hecho.

Poco después del ataque al Capitolio, Facebook anunció que intentaría tomar medidas drásticas contra el contenido político en el News Feed para un pequeño porcentaje de personas en los EE. UU., Canadá, Brasil e Indonesia, durante un período de tiempo durante las pruebas.

Ahora, la compañía dice que trabajará para comprender mejor qué contenido se vincula con experiencias negativas de News Feed, incluido el contenido político. En este caso, Facebook puede preguntar a los usuarios en publicaciones con muchas reacciones negativas qué tipo de contenido quieren ver menos. Esto se hará a través de encuestas en ciertas publicaciones, así como a través de sesiones de investigación en curso donde se invita a las personas a hablar sobre su experiencia en News Feed, dijo Facebook a TechCrunch.

También contará de manera más destacada con la opción de ocultar publicaciones que encuentre «irrelevantes, problemáticas o irritantes». Aunque esta función existía antes, ahora podrá tocar una X en la esquina superior derecha de una publicación para ocultarla de la sección de noticias, si está en el grupo de prueba, y ver menos como en el futuro, para obtener más información. experiencia personalizada.

No está claro que permitir que los usuarios elijan y elegir sus temas sea la mejor manera de resolver los problemas más importantes con publicaciones negativas, contenido divisivo o información errónea, aunque esta prueba se trata menos de lo último y más de hacer que las noticias se «sientan» más positivas. .

A medida que se recopilan los datos de las pruebas, Facebook incorporará los aprendizajes en sus algoritmos de clasificación de News Feed. Pero no está claro en qué medida ajustará el algoritmo a nivel mundial en lugar de simplemente personalizar la experiencia para los usuarios finales de forma más individual a lo largo del tiempo. La compañía le dice a TechCrunch que los datos de la encuesta se recopilarán de un pequeño porcentaje de usuarios que se colocan en los grupos de prueba, que luego se utilizarán para entrenar un modelo de aprendizaje automático.

También explorará formas de brindar a las personas controles más directos sobre el tipo de contenido que ven en el News Feed en el futuro.

La compañía dice que las pruebas se realizarán durante los próximos meses.


Source link

Neto

Soy Neto, creador de LaNetaNeta.com Me apasiona leer y aprender, disfruto escribir y compartir publicaciones interesantes con el publico.

¿Ya viste esto?

Botón volver arriba