Ícono del sitio La Neta Neta

La IA de Facebook no pudo detectar asesinatos en masa

La IA de Facebook no pudo detectar asesinatos en masa

Facebook ha brindado otra actualización sobre las medidas que tomó y qué más está haciendo después del video transmitido en vivo de una masacre con arma de fuego por un terrorista de extrema derecha que mató a 50 personas en dos mezquitas en Christchurch, Nueva Zelanda.

A principios de esta semana, la compañía dijo que el video de los asesinatos se había visto menos de 200 veces durante la transmisión de la transmisión en vivo, y unas 4.000 veces antes de que se eliminara de Facebook, y la transmisión no se informó a Facebook hasta 12 minutos después de su finalización. .

De acuerdo con la compañía, ninguno de los usuarios que vieron los asesinatos desarrollarse en la plataforma de la compañía en tiempo real aparentemente reportó el flujo a la compañía.

También dijo anteriormente que eliminó 1.5 millones de versiones del video de su sitio en las primeras 24 horas después de la transmisión en vivo, con 1.2M de los capturados en el punto de carga, lo que significa que no pudo detener 300,000 subidas en ese momento. Aunque como señalamos en nuestro informe anterior, esas estadísticas se seleccionan y solo representan los videos identificados en Facebook. Encontramos otras versiones del video que aún circulan en su plataforma 12 horas después.

A raíz del ataque terrorista transmitido en vivo, Facebook ha continuado recibiendo llamadas de los líderes mundiales para hacer más para asegurarse de que dicho contenido no pueda ser distribuido por su plataforma.

La primera ministra de Nueva Zelanda, Jacinda Ardern, dijo ayer a los medios de comunicación que el video "no debe ser distribuido, disponible, puede verse", y lo apodó: "horrible".

Confirmó que Facebook había estado en contacto con su gobierno, pero enfatizó que, en su opinión, la compañía no ha hecho lo suficiente.

Más tarde, también le dijo al parlamento de Nueva Zelanda: “No podemos simplemente sentarnos y aceptar que estas plataformas simplemente existen y que lo que se dice sobre ellas no es responsabilidad del lugar donde se publican. Ellos son los editores. No sólo el cartero ".

Pedimos a Facebook una respuesta a la llamada de Ardern para que las plataformas de contenido en línea acepten la responsabilidad a nivel de editor del contenido que distribuyen. Su portavoz evitó la pregunta, señalando, en cambio, su última crisis de relaciones públicas que titula: "Una actualización adicional sobre el ataque terrorista de Nueva Zelanda".

Aquí escribe que "las personas buscan entender cómo se utilizaron las plataformas en línea como Facebook para hacer circular videos horrendos del ataque terrorista", diciendo que "quería proporcionar información adicional de nuestra revisión sobre cómo se utilizaron nuestros productos y cómo podemos". mejorar en el futuro ”, antes de continuar para reiterar muchos de los detalles que ha publicado anteriormente.

Incluyendo que el video de la masacre se compartió rápidamente en el tablero de mensajes de 8chan por un usuario que publicó un enlace a una copia del video en un sitio para compartir archivos. Esto fue antes de que se alertara a Facebook sobre el video que se estaba transmitiendo en su plataforma.

Continúa dando a entender que 8chan era un centro para compartir más ampliamente el video, afirmando que: "Los identificadores forenses en muchos de los videos que luego circularon, como una barra de herramientas de marcadores visible en una grabación de pantalla, coinciden con el contenido publicado en 8chan".

Por lo tanto, es evidente que se trata de asegurarse de que los líderes políticos no los identifican y buscan respuestas políticas al desafío planteado por el odio en línea y el contenido terrorista.

Más detalles sobre los que decide detenerse en la actualización es cómo los AIs que utilizan para ayudar en el proceso de revisión del contenido humano de las transmisiones de Facebook Live están sintonizados para "detectar y priorizar videos que puedan contener actos suicidas o dañinos", con La IA lleva estos videos a la cima de los montones de contenido de los moderadores humanos, sobre todo las otras cosas que también necesitan mirar.

Claramente, “actos dañinos” estuvieron involucrados en el ataque terrorista de Nueva Zelanda. Sin embargo, la IA de Facebook no pudo detectar una masacre que se desarrollaba en tiempo real. Un asesinato en masa que involucraba un arma automática se deslizó justo debajo del radar del robot.

Facebook explica esto diciendo que es porque no tiene los datos de entrenamiento para crear un algoritmo que entienda que se trata de un asesinato en masa que se desarrolla en tiempo real.

También implica que la tarea de entrenar a una IA para captar un escenario tan horrible se ve agravada por la proliferación de videos de videojuegos de disparos en primera persona en plataformas de contenido en línea.

Escribe:[T]Su video particular no activó nuestros sistemas de detección automática. Para lograrlo, tendremos que proporcionar a nuestros sistemas grandes volúmenes de datos de este tipo específico de contenido, algo que es difícil, ya que estos eventos son afortunadamente raros. Otro desafío es discernir automáticamente este contenido de contenido visualmente similar e inocuo; por ejemplo, si nuestros sistemas marcan miles de videos de videojuegos transmitidos en vivo, nuestros revisores podrían perderse los videos importantes del mundo real donde podríamos alertar a los primeros respondedores. Obtener ayuda en el suelo ".

El elemento de videojuego es un detalle escalofriante a considerar.

Sugiere que un acto dañino de la vida real que imita a un videojuego violento podría mezclarse con el fondo, en lo que respecta a los sistemas de moderación de IA; Invisible en un mar de contenido inocuo y virtualmente violento producido por los jugadores. (Lo que a su vez hace que te preguntes si el asesino empapado de Internet en Christchurch sabía, o sospechaba, que filmar el ataque desde la perspectiva de un videojuego en primera persona puede ser una solución para engañar a los imperfectos vigilantes de la IA de Facebook).

La publicación de Facebook es doblemente enfática en que AI no es "perfecta" y "nunca va a ser perfecta".

"La gente continuará siendo parte de la ecuación, ya sea la gente de nuestro equipo que revisa el contenido o la gente que usa nuestros servicios y nos informa el contenido", escribe, reiterando una vez más que hay alrededor de 30,000 personas trabajando en " seguridad y protección ", alrededor de la mitad de los cuales está haciendo la sudorosa tarea de revisar el contenido.

Esto es, como hemos dicho muchas veces antes, un número increíblemente pequeño de moderadores humanos, dada la vasta escala de contenido que se carga continuamente a la plataforma de usuario 2.2BN + de Facebook.

Moderar Facebook sigue siendo una tarea sin esperanza porque muy pocos humanos lo están haciendo.

Además, la inteligencia artificial realmente no puede ayudar. (Más adelante en la publicación del blog, Facebook también escribe vagamente que hay "millones" de transmisiones en vivo transmitidas en su plataforma todos los días, diciendo que esa es la razón por la que agregar una breve demora en la transmisión, como lo hacen las estaciones de TV, contenido de tiempo.)

Al mismo tiempo, la actualización de Facebook deja en claro en qué medida sus sistemas de "protección y seguridad" también dependen de personas no pagadas: los usuarios de Facebook de Aka se toman el tiempo y la mente para informar sobre contenido dañino.

Algunos podrían decir que es un excelente argumento para un impuesto a las redes sociales.

El hecho de que Facebook no recibiera un solo informe de la transmisión en vivo de la masacre de Christchurch mientras se desarrollaba el ataque terrorista significaba que el contenido no tenía prioridad para la "revisión acelerada" por parte de sus sistemas, lo que explica la prioridad de los informes adjuntos a los videos que aún se están transmitiendo, porque " si hay daños en el mundo real, tenemos una mejor oportunidad de alertar a los primeros respondedores y tratar de obtener ayuda en el terreno ".

Aunque también dice que expandió su lógica de aceleración el año pasado para "también cubrir videos que fueron publicados recientemente, en las últimas horas".

Pero nuevamente lo hizo con un enfoque en la prevención del suicidio, lo que significa que el video de Christchurch solo se habría marcado para una revisión de la aceleración en las horas posteriores a la finalización de la transmisión si se hubiera reportado como contenido de suicidio.

Entonces, el "problema" es que los sistemas de Facebook no dan prioridad al asesinato masivo.

"En [the first] informe, y una serie de informes subsiguientes, el video se informó por razones distintas al suicidio y, como tal, se manejó de acuerdo con diferentes procedimientos ", escribe, y agrega que está" aprendiendo de esto "y" reexaminando nuestra lógica de informes y experiencias. para videos en vivo y recientemente en vivo para expandir las categorías que llegarían a una revisión acelerada ”.

No mierda

Facebook también discute su fracaso para detener el resurgimiento de las versiones de la masacre en su plataforma, al haber sido, como lo dice, "tan efectivo" para prevenir la propagación de propaganda de organizaciones terroristas como ISIS con el uso de tecnología de comparación de imágenes y video. .

Afirma que su tecnología se vio superada en este caso por los "malos actores" que crearon muchas versiones editadas diferentes del video para tratar de frustrar los filtros, así como por las diversas formas en que "un grupo más amplio de personas distribuyó el video y, sin quererlo, lo hizo más difícil". copias de los partidos ".

Así que, esencialmente, la "viralidad" del terrible evento creó demasiadas versiones del video para que la tecnología de emparejamiento de Facebook pueda hacer frente.

“Algunas personas pueden haber visto el video en una computadora o en un televisor, lo filmaron con un teléfono y lo enviaron a un amigo. Otros pueden haber visto el video en su computadora, haber grabado su pantalla y haberlo transmitido. "Los sitios web y las páginas, ansiosos por llamar la atención de las personas que buscan el video, lo recortan y lo vuelven a grabar en varios formatos", escribe, en lo que se lee como otro intento de culpar a la función de amplificación que su usuario de 2.2BN + la plataforma juega.

En todo Facebook dice que encontró y bloqueó más de 800 variantes visualmente distintas del video que circulaban en su plataforma.

Revela que recurrió al uso de la tecnología de comparación de audio para tratar de detectar videos que habían sido alterados visualmente pero que tenían la misma banda sonora. Y nuevamente afirma que está tratando de aprender y encontrar mejores técnicas para bloquear el contenido que se está compartiendo de forma amplia por parte de los individuos, así como la retransmisión por los medios de comunicación principales. Así que cualquier tipo de evento importante de noticias, básicamente.

En una sección sobre los próximos pasos, Facebook dice que su prioridad es mejorar la tecnología de coincidencia para evitar la propagación de videos virales inapropiados.

Pero la coincidencia de audio claramente no ayudará si los re-compartidores maliciosos simplemente reeditan las imágenes y cambian la banda sonora en el futuro.

También admite que tiene que ser capaz de reaccionar más rápido "a este tipo de contenido en un video transmitido en vivo", aunque tampoco tiene soluciones firmes para ofrecer allí, y solo dice que explorará "si se puede usar la IA y cómo. estos casos, y cómo llegar a los informes de los usuarios más rápido ”.

Otra prioridad que reclama entre sus "próximos pasos" es luchar contra "discursos de odio de todo tipo en nuestra plataforma", diciendo que esto incluye a más de 200 organizaciones de supremacía blanca a nivel mundial "cuyo contenido estamos eliminando a través de la tecnología de detección proactiva".

Sin embargo, también está pasando por alto muchas críticas en ese frente, incluida la investigación que sugiere que los predicadores de odio de extrema derecha prohibidos son fácilmente capaces de evadir la detección en su plataforma. Además de su propio arrastre de pies al detener a los extremistas de extrema derecha. (Facebook finalmente prohibió a un infame activista de extrema derecha del Reino Unido el mes pasado, por ejemplo).

En su último intento de relaciones públicas, Facebook dice que está comprometido a expandir su colaboración en la industria para abordar el discurso de odio a través del Foro Global de Internet para Contrarrestar el Terrorismo (GIFCT), que se formó en 2017 cuando los políticos presionaban las plataformas para limpiar el contenido de ISIS, en un colectivo tratar de evitar una regulación más estricta.

"Estamos experimentando con el intercambio de URL de forma sistemática en lugar de solo hash de contenido, estamos trabajando para abordar la gama de terroristas y extremistas violentos que operan en línea, y tenemos la intención de perfeccionar y mejorar nuestra capacidad de colaborar en una crisis", escribe Facebook ahora, ofreciendo más vagos. Los experimentos como políticos exigen responsabilidad de contenidos.


Source link
Salir de la versión móvil