De Facebook La batalla contra la desinformación nunca terminará a este ritmo, pero eso no significa que la empresa se haya rendido. Por el contrario, solo gracias a la mejora constante de sus sistemas automatizados es capaz de mantenerse, aunque sea remotamente, libre de discursos de odio y desinformación. El director de tecnología Mike Schroepfer promocionó la última de esas mejoras hoy en una serie de publicaciones.
Los cambios se aplican a los sistemas adyacentes a la IA que utiliza la red social para eliminar de raíz los gustos del spam, noticias engañosas y difamaciones raciales, es decir, antes de que nadie, incluidos los moderadores de contenido de Facebook, vea esos elementos.
Una mejora está en los sistemas de análisis del lenguaje que Facebook emplea para detectar cosas como el discurso de odio. Esta es un área, explicó Schroepfer, en la que la empresa debe ser extremadamente cuidadosa. Los falsos positivos en el espacio publicitario (como que algo parece una estafa) son de bajo riesgo, pero los falsos positivos que eliminan publicaciones porque se confunden con discursos de odio pueden ser problemas graves. Por eso es importante tener mucha confianza al tomar esa determinación.
Desafortunadamente, el discurso de odio y el contenido adyacente pueden ser muy sutiles. Incluso algo que parece indiscutiblemente racista puede invertirse o subvertirse con una sola palabra. La creación de sistemas de aprendizaje automático que reflejen la complejidad y variedad de lenguajes es una tarea que requiere cantidades cada vez mayores de recursos informáticos.
Linformer (“lineal” + “transformador”) es la nueva herramienta que Facebook creó para gestionar el enorme coste de los recursos de escanear miles de millones de publicaciones al día. Se aproxima al mecanismo de atención central de los modelos de lenguaje basados en transformadores en lugar de calcularlo exactamente, pero con pocas compensaciones en el rendimiento. (Si entendiste todo eso, te felicito).
Eso se traduce en una mejor comprensión del lenguaje pero costos de cálculo solo marginalmente más altos, lo que significa que no tienen que, digamos, usar un modelo peor para una primera ola y luego solo ejecutar el modelo costoso en elementos sospechosos.
Los investigadores de la compañía también están trabajando en el problema ligeramente menos definido de comprender la interacción de texto, imágenes y texto en imágenes. Las capturas de pantalla falsas de TV y sitios web, memes y otras cosas que a menudo se encuentran en las publicaciones son increíblemente difíciles de entender para las computadoras, pero son una gran fuente de información. Además, una sola palabra modificada puede invertir completamente su significado, mientras que casi todos los detalles visuales siguen siendo los mismos.
Facebook está mejorando en la captura de estos en su variedad infinita, dijo Schroepfer. Todavía es muy difícil, dijo, pero han logrado grandes avances en la captura, por ejemplo, de imágenes de desinformación de COVID-19 como informes de noticias falsas que indican que las máscaras causan cáncer, incluso cuando las personas que las publican manipulan y cambian su apariencia.
La implementación y el mantenimiento de estos modelos también es compleja, lo que requiere un baile constante de creación de prototipos, implementación y pruebas en línea sin conexión y llevar esa retroalimentación a un nuevo prototipo. Reinforcement Integrity Optimizer adopta un nuevo enfoque, monitoreando la efectividad de los nuevos modelos en contenido en vivo, transmitiendo esa información al sistema de entrenamiento constantemente en lugar de, digamos, informes semanales.
No es fácil determinar si se puede decir que Facebook tiene éxito o no. Por un lado, las estadísticas que publican pintan un panorama optimista de proporciones crecientes de discursos de odio y desinformación eliminados, con millones más de discursos de odio, imágenes violentas y contenido de explotación infantil eliminados en comparación con el último trimestre.
Le pregunté a Schoepfer cómo Facebook puede rastrear o expresar su éxito o fracaso con mayor precisión, ya que los aumentos en los números podrían deberse a mecanismos mejorados para la eliminación o simplemente a volúmenes más grandes de ese contenido que se eliminan al mismo ritmo.
“La línea de base cambia todo el tiempo, por lo que debe analizar todas estas métricas juntas. Nuestra estrella del norte a largo plazo es la prevalencia ”, explicó, refiriéndose a la frecuencia real de los usuarios que encuentran un tipo de contenido determinado en lugar de si se eliminó de forma preventiva o algo así. “Si elimino mil piezas de contenido que la gente nunca vería de todos modos, no importa. Si elimino la única pieza de contenido que estaba a punto de volverse viral, es un gran éxito “.
Facebook ahora incluye la prevalencia del discurso de odio en su “informe de cumplimiento de los estándares comunitarios” trimestral y lo define de la siguiente manera:
La prevalencia estima el porcentaje de veces que las personas ven contenido infractor en nuestra plataforma. Calculamos la prevalencia del discurso de odio seleccionando una muestra de contenido visto en Facebook y luego etiquetando cuánto de él viola nuestras políticas de discurso de odio. Dado que la incitación al odio depende del idioma y el contexto cultural, enviamos estas muestras representativas a revisores de diferentes idiomas y regiones.
Y para su primera medida de esta nueva estadística:
De julio de 2020 a septiembre de 2020 fue del 0,10% al 0,11%. En otras palabras, de cada 10.000 visualizaciones de contenido en Facebook, de 10 a 11 incluían incitación al odio.
Si este número no es engañoso, implica que una de cada mil piezas de contenido en línea en este momento en Facebook califica como discurso de odio. Eso parece bastante alto. (Le pedí a Facebook un poco más de claridad sobre este número).
También se debe cuestionar la integridad de estas estimaciones: los informes de áreas devastadas por la guerra como Etiopía sugieren que están plagadas de discursos de odio que se detectan, informan y eliminan de manera inadecuada. Y, por supuesto, la irrupción de contenido y grupos de milicias nacionalistas y supremacistas blancos en Facebook ha sido bien documentada.
Schroepfer enfatizó que su rol está muy directamente en el lado de la “implementación” de las cosas y que las cuestiones de política, dotación de personal y otras partes importantes de las vastas operaciones de la red social están más o menos fuera de su jurisdicción. Francamente, eso es un poco decepcionante para el director de tecnología de una de las empresas más poderosas del mundo, que parece tomarse estos problemas en serio. Pero uno también se pregunta si, si él y sus equipos no hubieran sido tan asiduos en la búsqueda de soluciones técnicas como las anteriores, Facebook podría haber estado completamente cubierto de odio y falsedad en lugar de ser simplemente abatido inevitablemente.
Source link