Facebook introduce la política de "un ataque" para combatir el abuso de su servicio de transmisión en vivo

Facebook introduce la política de "un ataque" para combatir el abuso de su servicio de transmisión en vivo

Facebook está tomando medidas enérgicas contra su servicio de transmisión en vivo después de que se usó para transmitir los impactantes tiroteos en masa que dejaron 50 muertos en dos mezquitas de Christchurch en Nueva Zelanda en marzo. La red social dijo hoy que está implementando una regla de "un ataque" que evitará que los usuarios que incumplan sus reglas utilicen el servicio Facebook Live.

“A partir de ahora, cualquier persona que viole nuestras políticas más serias no podrá utilizar Live por períodos de tiempo establecidos, por ejemplo, 30 días, a partir de su primera ofensa. Por ejemplo, alguien que comparta un enlace a una declaración de un grupo terrorista sin contexto ahora será inmediatamente bloqueado de usar Live por un período de tiempo determinado ", escribió el vicepresidente de integridad de Facebook, Guy Rosen.

La compañía dijo que planea implementar restricciones adicionales para estas personas, lo que incluirá limitar su capacidad para publicar anuncios en la red social. Quienes violen la política de Facebook contra "personas y organizaciones peligrosas", una nueva introducción que usó para prohibir varias figuras de la derecha a principios de este mes, tendrán prohibido usar Live, aunque Facebook no es específico sobre la duración de Las prohibiciones o lo que se necesitaría para activar una barra permanente de transmisión en vivo.

Facebook está utilizando cada vez más la inteligencia artificial para detectar y contrarrestar contenido violento y peligroso en su plataforma, pero ese enfoque simplemente no funciona.

Más allá del desafío de los idiomas que no están en inglés: el sistema de detección de IA de Facebook ha fallado en Myanmar, por ejemplo, a pesar de lo que había afirmado el CEO Mark Zuckerberg: el sistema de detección no era sólido para lidiar con las consecuencias de Christchurch.

La transmisión en sí no fue reportada a Facebook hasta 12 minutos después de haber finalizado, mientras que Facebook no pudo bloquear el 20 por ciento de los videos de la transmisión en vivo que luego se cargaron en su sitio. De hecho, TechCrunch encontró varios videos todavía en Facebook más de 12 horas después del ataque a pesar los esfuerzos de la red social para seleccionar las "estadísticas de vanidad" Eso parecía mostrar su inteligencia artificial y los equipos humanos tenían las cosas bajo control.

Reconociendo ese fracaso de manera indirecta, Facebook dijo que invertirá $ 7.5 millones en "nuevas asociaciones de investigación con académicos líderes de tres universidades, diseñadas para mejorar la tecnología de análisis de imagen y video".

Los primeros socios en esta iniciativa incluyen la Universidad de Maryland, la Universidad de Cornell y la Universidad de California, Berkeley, que dijo que ayudará con técnicas para detectar imágenes manipuladas, video y audio. Otro objetivo es usar la tecnología para identificar la diferencia entre aquellos que manipulan deliberadamente los medios de comunicación y aquellos que tan "inconscientemente".

Facebook dijo que espera agregar otros socios de investigación a la iniciativa, que también se enfoca en combatir las fallas profundas.

"Aunque implementamos una serie de técnicas para encontrar estas variantes, incluida la tecnología de coincidencia de video y audio, nos dimos cuenta de que esta es un área en la que debemos invertir en investigaciones adicionales", reconoció Rosen en la publicación del blog.

El anuncio de Facebook se produce menos de un día después de que una serie de líderes mundiales, incluida la primera ministra de Nueva Zelanda, Jacinda Ardern, pidió a las empresas de tecnología que firmen un compromiso para aumentar sus esfuerzos para combatir el contenido tóxico.

Según las personas que trabajan para el Ministerio de Economía francés, el llamado a Christchurch no contiene ninguna recomendación específica para la nueva regulación. Más bien, los países pueden decidir qué quieren decir con contenido violento y extremista.

"Por ahora, es un enfoque en un evento en particular que causó un problema en varios países", dijo el ministro de Digital de Francia, Cédric O, en una reunión informativa con periodistas.


Source link