Diez personas fueron asesinadas este fin de semana en un ataque racista en un supermercado de Buffalo, Nueva York. El tirador supremacista blanco de dieciocho años transmitió en vivo su ataque en Twitch, la plataforma de transmisión de videojuegos propiedad de Amazon. A pesar de que Twitch eliminó el video dos minutos después de que comenzara la violencia, todavía era demasiado tarde; ahora, imágenes espantosas del ataque terrorista circulan abiertamente en plataformas como Facebook y Twitter, incluso después de que las compañías prometieron eliminar el video.
En Facebook, se notificó a algunos usuarios que marcaron el video que el contenido no violó sus reglas. La compañía le dijo a TechCrunch que esto fue un error y agregó que tiene equipos trabajando las 24 horas para eliminar videos del tiroteo, así como enlaces al video alojado en otros sitios. Facebook dijo que también está eliminando copias de la diatriba racista del tirador y el contenido que lo elogia.
Pero cuando buscamos un término tan simple como “imágenes de disparos a búfalos” en Facebook, uno de los primeros resultados mostró una grabación de pantalla de 54 segundos de las imágenes del terrorista. TechCrunch encontró el video una hora después de que se subió y lo informó de inmediato. El video no fue retirado hasta tres horas después de su publicación, cuando ya había sido visto más de mil veces.
En teoría, esto no debería suceder. Un representante de Facebook le dijo a TechCrunch que agregó varias versiones del video, así como los escritos racistas del tirador, a una base de datos de contenido violatorio, lo que ayuda a la plataforma a identificar, eliminar y bloquear dicho contenido. Le preguntamos a Facebook sobre este incidente en particular, pero no proporcionaron detalles adicionales.
“Vamos a seguir aprendiendo, refinando nuestros procesos, para asegurarnos de que podemos detectar y eliminar contenido infractor más rápidamente en el futuro”, dijo el vicepresidente de integridad de Facebook, Guy Rosen, en respuesta a una pregunta sobre por qué la empresa tuvo problemas para eliminar copias del video en una llamada no relacionada el martes.
Las reposiciones de la transmisión del tirador también fueron fáciles de encontrar en Twitter. De hecho, cuando escribimos “video de buffalo” en la barra de búsqueda, Twitter sugirió búsquedas como “gráfico de video completo de video de buffalo”, “video filtrado de buffalo” y “gráfico de video de buffalo”.
Créditos de imagen: Twitter, captura de pantalla de TechCrunch
Encontramos varios videos del ataque que han estado circulando en Twitter durante más de dos días. Uno de esos videos tuvo más de 261,000 visitas cuando lo revisamos el martes por la tarde.
En abril, Twitter promulgó una política que prohíbe a los perpetradores individuales de ataques violentos de Twitter. Según esta política, la plataforma también se reserva el derecho de eliminar multimedia relacionada con los ataques, así como el lenguaje de los “manifiestos” terroristas.
“Estamos eliminando videos y medios relacionados con el incidente. Además, podemos eliminar los Tweets que difunden el manifiesto u otro contenido producido por los perpetradores”, dijo un portavoz de Twitter a TechCrunch. La empresa calificó este contenido “de odio y discriminatorio” como “perjudicial para la sociedad”.
Twitter también afirma que algunos usuarios intentan eludir los derribos cargando contenido alterado o manipulado relacionado con el ataque.
Por el contrario, las imágenes de video de la tragedia del fin de semana fueron relativamente difíciles de encontrar en YouTube. Los términos de búsqueda básicos para el video del tiroteo de Buffalo en su mayoría generaron cobertura de los principales medios de comunicación. Con los mismos términos de búsqueda que usamos en Twitter y Facebook, pudimos identificar un puñado de videos de YouTube con miniaturas del tiroteo que en realidad eran contenido no relacionado una vez que se hizo clic en ellos. En TikTok, TechCrunch identificó algunas publicaciones que dirigían a los usuarios a sitios web donde podían ver el video, pero no encontraron las imágenes reales en la aplicación en nuestras búsquedas.
Twitch, Twitter y Facebook han declarado que están trabajando con el Foro Global de Internet para Contrarrestar el Terrorismo para limitar la difusión del video. Twitch y Discord también han confirmado que están trabajando con las autoridades gubernamentales que están investigando la situación. El tirador describió en detalle sus planes para el tiroteo en un servidor privado de Discord antes del ataque.
Según los documentos revisados por TechCrunch, el tirador de Buffalo decidió transmitir su ataque en Twitch porque un tiroteo antisemita de 2019 en la sinagoga de Halle permaneció en vivo en Twitch durante más de 30 minutos antes de que fuera derribado. El tirador consideró transmitir a Facebook, pero optó por no usar la plataforma porque pensó que los usuarios debían iniciar sesión para ver transmisiones en vivo.
Facebook también ha albergado sin darse cuenta tiroteos masivos que evadieron la detección algorítmica. El mismo año del tiroteo en la sinagoga de Halle, 50 personas murieron en un ataque islamófobo contra dos mezquitas en Christchurch, Nueva Zelanda, que se transmitió durante 17 minutos. Al menos tres perpetradores de tiroteos masivos, incluido el sospechoso en Buffalo, han citado la masacre de Christchurch transmitida en vivo como fuente de inspiración para sus ataques racistas.
Facebook notó el día después del tiroteo en Christchurch que había eliminado 1,5 millones de videos del ataque, 1,2 millones de los cuales fueron bloqueados al subirlos. Por supuesto, esto planteó la pregunta de por qué Facebook no pudo detectar de inmediato 300,000 de esos videos, lo que marca una tasa de falla del 20%.
A juzgar por lo fácil que fue localizar videos del tiroteo de Buffalo en Facebook, parece que la plataforma todavía tiene un largo camino por recorrer.