Ícono del sitio La Neta Neta

Twitter dispersa el Consejo de Confianza y Seguridad después de la renuncia de miembros clave

Elon Musk está renovando el sistema de verificación de Twitter, y podría implicar una tarifa mensual

Twitter dispersó hoy el Trust & Safety Council, que era un grupo asesor formado por aproximadamente 100 investigadores independientes y activistas de derechos humanos. El grupo, formado en 2016, hizo aportes a la red social sobre diferentes temas relacionados con el contenido y los derechos humanos, como la eliminación de material de abuso sexual infantil (CSAM), la prevención del suicidio y la seguridad en línea. Esto podría tener implicaciones para la moderación de contenido global de Twitter, ya que el grupo estaba formado por expertos de todo el mundo.

De acuerdo a múltiple informes, los miembros del consejo recibieron un correo electrónico de Twitter el lunes diciendo que el consejo “no es la mejor estructura” para obtener información externa sobre la estrategia de políticas y productos de la empresa. Si bien la compañía dijo que “seguirá recibiendo” ideas de los miembros del consejo, no hubo garantías de que se tomarán en consideración. Dado que el grupo asesor diseñado para proporcionar ideas se disolvió, se siente como decir “gracias, pero no gracias”.

un informe de el periodico de Wall Street señala que el correo electrónico se envió una hora antes de que el consejo tuviera una reunión programada con el personal de Twitter, incluida la nueva directora de confianza y seguridad, Ella Irwin, y el director sénior de políticas públicas, Nick Pickles.

Este desarrollo viene después tres miembros clave del consejo de confianza y seguridad renunciaron la semana pasada. Los miembros dijo en una carta que Elon Musk ignoró al grupo a pesar de afirmar que se centraba en la seguridad del usuario en la plataforma.

“El establecimiento del Consejo representó el compromiso de Twitter de alejarse de un enfoque centrado en los EE. UU. para la seguridad del usuario, una colaboración más sólida entre regiones y la importancia de tener personas con mucha experiencia en el equipo de seguridad. Ese último compromiso ya no es evidente, dado reciente declaración de Twitter que se basará más en la moderación de contenido automatizado. Los sistemas algorítmicos solo pueden llegar hasta cierto punto en la protección de los usuarios contra el abuso y el discurso de odio en constante evolución antes de que se desarrollen patrones detectables”, dijo.

Después de hacerse cargo de Twitter, Musk dijo que iba a formar un nuevo consejo de moderación de contenido con un “conjunto diverso de puntos de vista”, pero no ha habido desarrollo en ese frente. Como mi colega, Taylor Hatmaker señaló en su historia en agosto, no tener un conjunto sólido de sistemas de filtrado de contenido puede perjudicar a grupos subrepresentados como la comunidad LGBTQ.




Source link

Salir de la versión móvil