Los 'Twitter Files' de Musk ofrecen un vistazo de la cruda, complicada e ingrata tarea de la moderación

Los ‘Twitter Files’ de Musk ofrecen un vistazo de la cruda, complicada e ingrata tarea de la moderación

El nuevo dueño de Twitter, Elon Musk, está promocionando febrilmente sus “Twitter Files”: comunicaciones internas seleccionadas de la empresa, laboriosamente tuiteadas por amanuenses simpatizantes. Pero la convicción obvia de Musk de que ha lanzado algún kraken partidista es errónea: lejos de ser una conspiración o un abuso sistémico, los archivos son un vistazo valioso detrás de la cortina de la moderación a gran escala, lo que sugiere los trabajos de Sísifo realizados por cada plataforma de redes sociales.

Durante una década, empresas como Twitter, YouTube y Facebook han realizado un elaborado baile para mantener los detalles de sus procesos de moderación igualmente fuera del alcance de los malos actores, los reguladores y la prensa.

Revelar demasiado sería exponer los procesos al abuso por parte de los spammers y estafadores (que de hecho se aprovechan de todos los detalles filtrados o publicados), mientras que revelar muy poco conduce a informes y rumores dañinos, ya que pierden el control sobre la narrativa. Mientras tanto, deben estar listos para justificar y documentar sus métodos o arriesgarse a la censura y multas de los organismos gubernamentales.

El resultado es que, si bien todos saben un poco sobre cómo inspeccionan, filtran y organizan exactamente estas empresas el contenido publicado en sus plataformas, es suficiente para estar seguros de que lo que estamos viendo es solo la punta del iceberg.

A veces hay revelaciones de los métodos que sospechábamos: contratistas por hora haciendo clic en imágenes violentas y sexuales, una industria abominable pero aparentemente necesaria. A veces, las empresas se exceden, como afirmaciones repetidas de cómo la IA está revolucionando la moderación, y los informes posteriores de que los sistemas de IA para este propósito son inescrutables y poco confiables.

Lo que casi nunca sucede (por lo general, las empresas no hacen esto a menos que se vean obligadas a hacerlo) es que las herramientas y los procesos reales de moderación de contenido a escala están expuestos sin filtro. Y eso es lo que Musk ha hecho, quizás para su propio riesgo, pero seguramente para el gran interés de cualquiera que alguna vez se haya preguntado qué hacen, dicen y hacen clic los moderadores cuando toman decisiones que pueden afectar a millones.

No prestes atención a la conversación honesta y compleja detrás de la cortina.

Las cadenas de correos electrónicos, las conversaciones de Slack y las capturas de pantalla (o, más bien, capturas de pantallas) publicadas durante la última semana brindan una idea de este proceso importante y poco comprendido. Lo que vemos es un poco de la materia prima, que no son los illuminati partidistas que algunos esperaban, aunque está claro, por su presentación altamente selectiva, que esto es lo que debemos percibir.

Lejos de eso: las personas involucradas son por turnos cautelosas y confiadas, prácticas y filosóficas, francas y complacientes, lo que demuestra que la elección de limitar o prohibir no se hace arbitrariamente sino de acuerdo con un consenso en evolución de puntos de vista opuestos.

Antes de la elección de restringir temporalmente la historia de la computadora portátil Hunter Biden, probablemente en este punto la decisión de moderación más polémica de los últimos años, detrás de la prohibición de Trump, no existe el partidismo ni la conspiración insinuados por el paquete de bomba de los documentos.

En cambio, encontramos personas serias y reflexivas que intentan conciliar definiciones y políticas contradictorias e inadecuadas: ¿Qué constituye material “pirateado”? ¿Qué confianza tenemos en esta o aquella evaluación? ¿Qué es una respuesta proporcionada? ¿Cómo debemos comunicarlo, a quién y cuándo? ¿Cuáles son las consecuencias si lo hacemos, si no limitamos? ¿Qué precedentes establecemos o rompemos?

Las respuestas a estas preguntas no son del todo obvias, y son el tipo de cosas que generalmente se resuelven durante meses de investigación y discusión, o incluso en los tribunales (los precedentes legales afectan el lenguaje legal y las repercusiones). Y tenían que hacerlo rápido, antes de que la situación se saliera de control de una forma u otra. La disidencia interna y externa (nada menos que de un Representante de los EE. UU., irónicamente, mencionado en el hilo junto con Jack Dorsey en violación de la misma política) se consideró e integró honestamente.

“Esta es una situación emergente en la que los hechos siguen sin estar claros”, dijo el ex jefe de confianza y seguridad, Yoel Roth. “Nos equivocamos al incluir una advertencia y evitar que este contenido se amplifique”.

Algunos cuestionan la decisión. Algunos cuestionan los hechos tal como han sido presentados. Otros dicen que no está respaldado por su lectura de la política. Uno dice que necesitan dejar muy clara la base ad-hoc y el alcance de la acción, ya que obviamente será examinada como partidista. El Consejero General Adjunto Jim Baker pide más información, pero dice que se justifica la cautela. No hay un precedente claro; los hechos están en este punto ausentes o no verificados; parte del material es claramente imágenes de desnudos no consensuales.

“Creo que Twitter mismo debería restringir lo que recomienda o pone en las noticias de moda, y su política contra los grupos de QAnon es buena”, reconoce el representante Ro Khanna, al tiempo que argumenta que la acción en cuestión es un paso demasiado lejos. “Es un equilibrio difícil”.

Ni el público ni la prensa han estado al tanto de estas conversaciones, y la verdad es que somos tan curiosos, y en gran medida como en la oscuridad, como nuestros lectores. Sería incorrecto llamar a los materiales publicados una representación completa o incluso precisa de todo el proceso (son descaradamente, aunque ineficazmente, seleccionados y elegidos para encajar en una narrativa), pero incluso así estamos más informados que antes. .

Herramientas del oficio

Aún más directamente revelador fue el siguiente hilo, que contenía capturas de pantalla de las herramientas de moderación reales utilizadas por los empleados de Twitter. Si bien el hilo intenta equiparar el uso de estas herramientas con la prohibición de la sombra, las capturas de pantalla no muestran actividades nefastas, ni las necesitan para ser interesantes.

Créditos de imagen: Gorjeo

Por el contrario, lo que se muestra es convincente por la misma razón de que es tan prosaico, tan insípidamente sistemático. Estas son las diversas técnicas que todas las empresas de redes sociales han explicado una y otra vez que utilizan, pero mientras que antes las teníamos expresadas en el alegre canto diplomático de las relaciones públicas, ahora se presentan sin comentarios: “Lista negra de tendencias”, “Perfil alto”, “HACER NO ACTUAR” y el resto.

Mientras tanto, Yoel Roth explica que las acciones y políticas deben estar mejor alineadas, que se requiere más investigación, que hay planes en marcha para mejorar:

La hipótesis que subyace en gran parte de lo que hemos implementado es que si la exposición a, por ejemplo, la información errónea causa daño directamente, debemos usar remedios que reduzcan la exposición, y limitar la propagación/viralidad del contenido es una buena manera de hacerlo… estamos Necesitaremos presentar un caso más sólido para incluir esto en nuestro repertorio de remediación de políticas, especialmente para otros dominios de políticas.

Una vez más, el contenido desmiente el contexto en el que se presenta: estas no son las deliberaciones de una camarilla liberal secreta que ataca a sus enemigos ideológicos con un martillo de prohibición. Es un panel de nivel empresarial como el que puede ver para el seguimiento de clientes potenciales, la logística o las cuentas, discutido e iterado por personas sensatas que trabajan dentro de las limitaciones prácticas y con el objetivo de satisfacer a múltiples partes interesadas.

Como debería ser: Twitter, al igual que otras plataformas de redes sociales, ha estado trabajando durante años para hacer que el proceso de moderación sea lo suficientemente eficiente y sistemático para funcionar a escala. No solo para que la plataforma no se vea invadida por bots y spam, sino también para cumplir con marcos legales como las órdenes de la FTC y el RGPD. (De los cuales el “acceso extenso y sin filtrar” que se les dio a los extraños a la herramienta de la imagen bien puede constituir una violación. Las autoridades relevantes le dijeron a TechCrunch que están “comprometiendo” con Twitter sobre el asunto).

Un puñado de empleados que toman decisiones arbitrarias sin rúbrica ni supervisión no es forma de moderar de manera efectiva o cumplir con tales requisitos legales; tampoco (como el resignación de varios en el Consejo de Seguridad y Confianza de Twitter testifica hoy) es la automatización. Necesita una gran red de personas que cooperen y trabajen de acuerdo con un sistema estandarizado, con límites claros y procedimientos de escalamiento. Y eso es ciertamente lo que parecen mostrar las capturas de pantalla que Musk ha hecho que se publiquen.

Lo que no muestran los documentos es ningún tipo de sesgo sistemático, que los suplentes de Musk insinúan pero no logran corroborar del todo. Pero ya sea que encaje o no en la narrativa que desean, lo que se publica es de interés para cualquiera que piense que estas empresas deberían ser más comunicativas sobre sus políticas. Esa es una victoria para la transparencia, incluso si el enfoque opaco de Musk lo logra más o menos por accidente.




Source link