Ícono del sitio La Neta Neta

Los dolores de crecimiento de Bluesky tensan su relación con los usuarios negros

For Bluesky to thrive, it needs sex workers and Black Twitter

Bluesky, la red social descentralizada y alternativa pionera a Twitter, ha sido aclamada como un país de las maravillas de publicaciones divertidas y buenas vibraciones. Pero un cambio de política de moderación que siguió a una amenaza de muerte contra un usuario negro tiene muchos en Bluesky cuestionando si la plataforma es segura para las comunidades marginadas después de todo.

Bluesky tenía alrededor de 50.000 usuarios a finales de abril. Sus usuarios se han duplicado desde entonces y, a medida que gana más, también enfrenta una mayor presión para tomar medidas enérgicas contra el discurso de odio y otros comentarios violentos. Como plataforma que pronto se federará, Bluesky se encuentra en un punto de inflexión que podría sentar el precedente para moderar redes sociales descentralizadas. Aunque la moderación sólida no fue uno de los principios fundamentales de Bluesky, muchos usuarios esperan que el sitio sea más proactivo para rechazar el fanatismo de la plataforma, incluso si entra en conflicto con los objetivos descentralizados de Bluesky.

Bluesky no ha anunciado un cronograma específico para la federación. en un 5 de mayo entrada en el blogel equipo de Bluesky dijo que planea lanzar un “entorno de caja de arena” para comenzar la fase de prueba de la federación “pronto”.

Comenzó en Hellthread el mes pasado. El hilo, que inicialmente se formó cuando un error de codificación notificó a todos los usuarios del hilo cada vez que otro usuario respondía, se convirtió en un foro de discusión caótico y aparentemente infinito con innumerables hilos secundarios. Inicialmente un medio de publicación de publicaciones de mierda, el hilo se ha convertido en un hervidero de discurso, abriendo la puerta al racismo desenfrenado.

Aveta, un ingeniero de software que invitó a cientos de usuarios negros a Bluesky con la esperanza de recrear Black Twitter, respondió en el hilo pidiendo a la gente que dejara de publicar memes de R. Kelly. Aveta es bien conocida en Bluesky por expandir la comunidad negra en la plataforma y es una abierta defensora del reconocimiento de la influencia negra en la cultura de Internet.

El mes pasado, tuvo una disputa con Alice, una usuaria de Bluesky que pasó por Cererean, por los comentarios que Alice hizo sobre la creciente comunidad negra. Alice hizo varias publicaciones racistas el mes pasado, incluida una que decía que los usuarios negros pueden crear sus propios espacios si no quieren estar en un lugar que “refleje la demografía de la anglosfera”.

En respuesta a otro comentario sobre las interacciones de hilo infernal de Aveta, Alice sugirió que empujaran a Aveta “en algún lugar muy alto”. Aveta, quien se negó a comentar por temor al acoso, descrito El comentario de Alice como una amenaza de muerte en publicaciones en Bluesky.

Otros usuarios reportaron el comentario de Alice como una violación de la política de Bluesky que prohíbe la violencia extrema. El equipo de moderación de Bluesky no prohibió inicialmente a Alice y generó más indignación entre los usuarios cuando el director ejecutivo de Bluesky, Jay Graber, anunció un cambio en las políticas de la plataforma que parecía excusar comentarios como el de Alice.

“No aprobamos las amenazas de muerte y continuaremos eliminando cuentas cuando creamos que sus publicaciones representan acoso dirigido o una amenaza creíble de violencia. Pero no todo el lenguaje acalorado cruza la línea y se convierte en una amenaza de muerte”, dijo Graber en un hilo de fin de semana. “Sabiamente o no, muchas personas usan imágenes violentas cuando están discutiendo o desahogándose. Debatimos si una “amenaza de muerte” debe ser específica y directa para causar daño, y qué significaría para la capacidad de las personas de participar en discusiones acaloradas sobre Bluesky si prohibiéramos este tipo de discurso”.

Según la nueva política de Bluesky, cualquier publicación que amenace con violencia o daño físico, ya sea literal o metafórico, resultará en una suspensión temporal de la cuenta. Los infractores reincidentes serán excluidos del servidor de Bluesky, pero una vez que Bluesky termine el “trabajo requerido para la federación”, dijo Graber, los usuarios podrán pasar a un nuevo servidor con sus mutuos y otros datos intactos.

Al igual que Mastodon, Bluesky pretende ser una red social federada y descentralizada. Todavía no está federado, por lo que todos los usuarios aún interactúan en el servidor de Bluesky y deben cumplir con las políticas de Bluesky. Una vez que esté federado, cualquier usuario en cualquier servidor en el Protocolo AT podrá “suscribirse” a un sistema de etiquetado comunitario que incluiría ciertos filtros de contenido.

Eso significa que, según la nueva política de moderación de contenido de Bluesky, un usuario que fue suspendido por incitar al odio o por hacer amenazas violentas aún podría interactuar con otros servidores que se ejecutan en el Protocolo AT. Bluesky siempre ha sido transparente acerca de convertirse en una red social descentralizada, pero la rápida acción que tomó anteriormente contra los usuarios que amenazaban a otros convenció a muchos de los primeros usuarios de Bluesky de que la plataforma continuaría cerrando la retórica violenta o de odio.

“Si bien esta puede no ser necesariamente su visión, creo que a muchas personas les preocupa menos mudarse a una nueva instancia de Bluesky que asegurarse de que los fanáticos no puedan tener *ninguna* instancia aquí”, Ben Perry, un Bluesky usuario también conocido como tedcruznipples, respondió al hilo de Graber. “No se les debería dar la oportunidad de federarse y difundir su mensaje”.

Bluesky implementó algoritmos personalizados el día después de que Graber anunciara la nueva política de moderación. La función permite a los usuarios elegir del “mercado de algoritmos” de Bluesky en lugar de solo ver el contenido del “algoritmo maestro” que emplean la mayoría de los sitios de redes sociales. Al igual que las listas de Twitter, los usuarios podrán alternar entre la pestaña “Qué está de moda”, una pestaña de personas a las que siguen y pestañas de fuentes personalizadas que han anclado. El feed “Cat Pics” muestra, como era de esperar, fotos de gatos, mientras que otros feeds se inclinan más hacia los memes y el contenido NSFW.

Pero muchos usuarios de Bluesky, en particular los usuarios de Black Bluesky, cuestionaron el momento del lanzamiento. Rudy Fraser, quien creó un algoritmo personalizado para usuarios negros llamado Blacksky, dijo que fue desafortunado que Bluesky intentara ofrecer algoritmos personalizados como una “solución” al debate de moderación.

“Como si una nueva característica pudiera resolver el problema subyacente y como si no pudieran prohibir al usuario infractor”, dijo Fraser. “Alguna forma de moderación programable está en el horizonte, pero aún no hay un prototipo para ver cómo funcionaría… Ya hay formas de evitar las etiquetas NSFW, por ejemplo. Necesitan encontrar esos errores antes de que alcancen una masa crítica”.

Moderar redes sociales descentralizadas es un desafío que por definición no ofrece soluciones fáciles. En el caso de Bluesky, establecer y hacer cumplir pautas comunitarias centralizadas para todos los usuarios parece la antítesis del sistema aspiracional de federación y moderación personalizable de Bluesky. En Mastodonte, la moderación es única para cada servidor y las políticas de un servidor no se pueden aplicar en otro servidor con un conjunto diferente de reglas. Para ser incluido en Mastodon’s selector de servidorlos servidores deben comprometerse con el Pacto de servidor de mastodonte, que exige “moderación activa contra el racismo, el sexismo, la homofobia y la transfobia”. Si bien los servidores más destacados cumplen con el Pacto, los servidores no listados no están sujetos a un estándar mínimo de moderación.

El fediverso, un acrónimo de “universo federado”, promete una vasta red social que puede existir más allá de la autoridad de una sola institución. Si bien ese nivel de independencia tiene beneficios, el enfoque de la moderación dirigida por la comunidad suele ser optimista en el mejor de los casos y negligente en el peor. Las plataformas pueden absolverse de la carga de la moderación, que requiere mucho trabajo, es costosa y siempre genera divisiones, al permitir que los usuarios tomen el volante.

Permitir que las comunidades se moderen también permite que el odio violento no se controle. En una reciente tiro al platoel desarrollador de software Dare Obasanjo señaló que muchos enfoques “tecnooptimistas” para la moderación de contenido no tienen en cuenta el contexto.

“Un usuario con un historial racista virulento que desea dañar a un BIPOC es diferente del mismo comentario en un debate sobre películas de MCU versus DCEU de usuarios que de otro modo se portarían bien”, escribió Obasanjo. “Una discusión legalista de si ‘alguien debería empujarte desde un edificio alto’ es una ofensa que merece una prohibición no entiende el punto por completo. La pregunta es si tolera a las personas abiertamente racistas que desean dañar a BIPOC en su aplicación o no”.

Bluesky emplea el filtrado automatizado para eliminar el contenido ilegal y hacer una primera pasada para etiquetar “material objetable”, como se describe en un entrada en el blog sobre la moderación componible de la plataforma. Luego, Bluesky aplica filtros a nivel de servidor que permiten a los usuarios ocultar, advertir o mostrar contenido que puede ser explícito u ofensivo. Bluesky planea permitir que los usuarios opten por ciertos filtros para personalizar aún más sus feeds individuales. La ACLU, por ejemplo, puede etiquetar ciertas cuentas y publicaciones como “discurso de odio”. Otros usuarios podrán suscribirse al filtro de contenido de la ACLU para silenciar el contenido.

Graber escribió que el sistema de moderación en capas y personalizable tiene como objetivo “priorizar la seguridad del usuario mientras le da a la gente más control”. La compañía no ha aclarado públicamente si también planea contratar moderadores humanos.

La moderación en los primeros días de Bluesky ha tenido una recepción mixta por parte de los usuarios. En abril, Bluesky prohibió a un usuario que se hacía llamar Hannah por responder a Matt Yglesias con “TE VAMOS A GANAR CON MARTILLOS”. Muchos usuarios de Bluesky protestaron por la prohibición e insistieron en que el usuario estaba bromeando. Días después, Bluesky baneó rápidamente otra cuenta que había acosado a otros usuarios con comentarios transfóbicos.

La prohibición del martillo de Hannah resurgió en Bluesky a raíz del cambio de política de moderación. Los usuarios de Black Bluesky cuestionaron por qué la amenaza contra Aveta no se tomó tan en serio como la respuesta de Hannah. Mekka Okereke, directora de ingeniería de Google Play, describió el comentario de Hannah como “metafórico e inapropiado”, pero señaló que “la gente simplemente no puede sentir empatía cuando el tema son las mujeres negras”.

“Y como he dicho aquí antes, ‘cámara de eco’ es un término específico utilizado principalmente por los medios de comunicación de derecha para describir cualquier lugar que intente hacer que las personas negras, latinas y LGBTQIA se sientan seguras”, dijo Okereke en un comunicado. correo. “Y el pedantismo filosófico de ‘la verdad importa’ solo parece surgir cuando hablamos de hacer que las mujeres negras se sientan seguras en línea”.

Pariss Athena, quien fundó la bolsa de trabajo Black Tech Pipeline, admitió que ningún espacio en línea es verdaderamente seguro, pero señaló que el racismo directo, la transfobia y la lucha contra la negritud “no son líneas borrosas”.

“La rendición de cuentas y la acción permanente deben tomarse de la forma en que están fuera de línea”, escribió en un correo. “Lo extraño es que estos muslos ya han ocurrido en Bluesky, pero parece moverse mucho más lento cuando se trata de personas negras”.

Los usuarios una vez elogiaron la plataforma por negarse a albergar discursos de odio, una decisión que parece hueca para muchos usuarios de Black Bluesky después del cambio más reciente en la política de moderación. Bluesky se diferenció de Twitter no solo por sus características personalizables, sino también por lo que parecía ser un serio interés en proteger a los grupos marginados. Los recientes cambios de política, sin embargo, dejan muchas dudas de que Bluesky pueda mantener esa seguridad.

Fraser no está seguro de que Bluesky esté listo para ser “administradores adecuados de un espacio seguro para grupos marginados”, pero está decidido a permanecer en la plataforma por el momento.

“Soy genuinamente optimista sobre el potencial del protocolo y espero que hagan un esfuerzo más claro para construir junto con las comunidades marginadas en el futuro”, dijo Fraser. “Creo firmemente en ‘Nada sobre nosotros sin nosotros’”.


Source link
Salir de la versión móvil