Ícono del sitio La Neta Neta

Twitch se basa en un enfoque de seguridad ‘en capas’ con nuevas herramientas de moderador

El nuevo portal de apelaciones de Twitch permite a los usuarios monitorear y oponerse a las prohibiciones de cuentas

Moderar una comunidad en línea es un trabajo difícil, a menudo ingrato, y es aún más difícil cuando sucede en un silo.

En Twitch, los canales interconectados ya comparten de manera informal información sobre los usuarios que prefieren mantener fuera. La empresa ahora está formalizando esa práctica ad hoc con una nueva herramienta que le permite listas de prohibición de intercambio de canalesinvitando a las comunidades a colaborar para bloquear a los acosadores en serie y a los usuarios disruptivos antes de que puedan causar problemas.

En una conversación con TechCrunch, la vicepresidenta de productos de Twitch, Alison Huffman, explicó que, en última instancia, la empresa quiere empoderar a los moderadores de la comunidad brindándoles la mayor cantidad de información posible. Huffman dice que Twitch ha realizado entrevistas “extensas” con mods para descubrir qué necesitan para sentirse más efectivos y hacer que sus comunidades sean más seguras.

Los moderadores deben tomar un montón de pequeñas decisiones sobre la marcha y, por lo general, la más importante es determinar qué usuarios están actuando de buena fe, sin causar problemas intencionalmente, y cuáles no.

“Si es alguien a quien ves y dices ‘Oh, este es un mensaje un poco fuera de color, me pregunto si es nuevo aquí o si es de mala fe’, si ha sido prohibido en uno de los sitios de tus amigos”. canales, es más fácil para usted decir, ‘sí, no, esta probablemente no es la persona adecuada para esta comunidad’, y puede tomar esa decisión más fácilmente”, dijo Huffman.

“Eso reduce la sobrecarga mental de los moderadores, y también saca de su comunidad de manera más eficiente a alguien que no es adecuado para la comunidad”.

Dentro del panel del creador, los creadores y los moderadores del canal pueden solicitar otros canales con los que les gustaría intercambiar listas de usuarios prohibidos. La herramienta es bidireccional, por lo que cualquier canal que solicite la lista de otro transmisor compartirá la suya a cambio. Un canal puede aceptar todas las solicitudes para compartir listas de prohibición o solo permitir solicitudes de afiliados de Twitch, socios y canales seguidos mutuamente. Todos los canales podrán intercambiar listas de prohibición con hasta otros 30 canales, lo que permitirá crear una lista bastante sólida de usuarios que preferirían mantener fuera, y los canales pueden dejar de compartir sus listas en cualquier momento.

Los canales pueden elegir monitorear o restringir automáticamente cualquier cuenta de la que se enteren a través de estas listas compartidas, y estarán restringidas de manera predeterminada. Los usuarios que están “supervisados” aún pueden chatear, pero serán marcados para que su comportamiento pueda observarse de cerca y su primer mensaje se resaltará con un cuadro rojo que también muestra dónde más han sido prohibidos. A partir de ahí, un canal puede optar por prohibirlos por completo o darles el visto bueno y cambiarlos al estado “confiable”.

Las herramientas de moderación más nuevas de Twitch son una forma interesante para que los canales hagan cumplir sus reglas contra los usuarios que pueden resultar disruptivos pero que potencialmente no llegan a romper las pautas más amplias de la compañía que prohíben el mal comportamiento manifiesto. No es difícil imaginar un escenario, particularmente para las comunidades marginadas, donde alguien con malas intenciones podría acosar intencionalmente un canal sin infringir explícitamente las reglas de Twitch contra el odio y el acoso.

Twitch reconoce que el acoso tiene “muchas manifestaciones”, pero a los efectos de ser suspendido de Twitch, ese comportamiento se define como “acecho, ataques personales, promoción del daño físico, redadas hostiles y brigada de informes falsos maliciosos”. Hay una zona gris de comportamiento fuera de esa definición que es más difícil de capturar, pero la herramienta de prohibición compartida es un paso en esa dirección. Aún así, si un usuario está infringiendo las reglas de la plataforma de Twitch, y no solo las reglas locales de un canal, Twitch alienta a un canal a informarlo.

“Creemos que esto también ayudará con las cosas que violan las pautas de nuestra comunidad”, dijo Huffman. “Con suerte, esos también se están informando a Twitch para que podamos tomar medidas. Pero sí creemos que ayudará con el acoso dirigido que vemos que afecta, en particular, a las comunidades marginadas”.

En noviembre pasado, Twitch agregó una nueva forma para que los moderadores detecten a los usuarios que intentan eludir las prohibiciones de canales. Esa herramienta, que la compañía llama “Detección de evasión de prohibición”, utiliza el aprendizaje automático para señalar automáticamente a cualquier persona en un canal que probablemente esté evadiendo una prohibición, lo que permite a los moderadores monitorear a ese usuario e interceptar sus mensajes de chat.

Las nuevas funciones se ajustan a la visión de Twitch de seguridad “en capas” en su plataforma, donde los creadores transmiten en vivo, a veces a cientos de miles de usuarios, y las decisiones de moderación deben tomarse en tiempo real en todos los niveles.

“Creemos que esta es una poderosa combinación de herramientas para ayudar a disuadir proactivamente el acoso basado en chat. [and] una de las cosas que me encantan de esto es que es otra combinación de humanos y tecnología”, dijo Huffman. “Con la detección de evasión de prohibiciones, estamos utilizando el aprendizaje automático para ayudar a encontrar usuarios que creemos que son sospechosos. Con esto, nos apoyamos en las relaciones humanas y en los creadores y comunidades de confianza que ya han establecido para ayudar a proporcionar esa señal”.

El desafío de moderación de contenido de Twitch es una especie de crisol, donde las transmisiones peligrosas pueden llegar a una audiencia y causar daño a medida que se desarrollan en tiempo real. La mayoría de las otras plataformas se enfocan en la detección de contenido posterior al hecho: algo se publica, se escanea mediante sistemas automatizados o se informa, y ​​ese contenido permanece activo, se desactiva o se etiqueta con algún tipo de advertencia para el usuario o la plataforma.

La compañía está evolucionando su enfoque de seguridad y escuchando a su comunidad, meditando sobre las necesidades de las comunidades marginadas como los streamers negros y LGBTQ que han luchado durante mucho tiempo para crear un espacio seguro o una presencia visible en la plataforma.

En marzo, Color of Change pidió a la empresa que intensificara sus esfuerzos para proteger a los creadores negros con una campaña llamada #TwitchDoBetter. La comunidad trans y LGBTQ en general también ha presionado a la empresa para que haga más para poner fin a las redadas de odio, donde los usuarios maliciosos inundan el canal de un transmisor con acoso dirigido. Twitch demandó a dos usuarios a fines del año pasado por coordinar campañas de odio automatizadas para disuadir a futuros malos.

En última instancia, es probable que las políticas inteligentes que se aplican de manera uniforme y las mejoras en el conjunto de herramientas que los moderadores tienen a su disposición tengan un mayor impacto en el día a día que las demandas, pero más capas de defensa no hacen daño.

“Para un problema como el acoso dirigido, eso no se resuelve en ninguna parte de Internet”, dijo Huffman. “Y, como sucede en el mundo sin Internet, es un problema para siempre, y no es uno que tenga una solución única.

“Lo que estamos tratando de hacer aquí es construir un conjunto realmente sólido de herramientas que sean altamente personalizables, y luego ponerlas en manos de las personas que conocen mejor sus necesidades, que son los creadores y sus moderadores, y simplemente permítales adaptar ese conjunto de herramientas para satisfacer sus necesidades particulares”.


Source link
Salir de la versión móvil