Meta asegura que cuando los usuarios envían videos y fotos confidenciales, los archivos reales nunca salen de su dispositivo y solo se comparten los datos hash.
Meta ha lanzado una nueva herramienta que permitirá Facebook y los usuarios de Instagram detienen la difusión de imágenes íntimas compartidas sin su consentimiento en las plataformas. Facebook y su plataforma hermana de redes sociales no son ajenos al problema que ahora ha ganado infamia bajo el término general de ‘pornografía de la venganza’. La compañía ya cuenta con un sistema desde 2019 que utiliza el aprendizaje automático y la inteligencia artificial para detectar imágenes y videos de desnudos que podrían haberse compartido sin consentimiento en Instagram y Facebook.
Pero hasta ahora, el sistema se ha basado en la intervención humana, un “miembro especialmente capacitado de nuestro equipo de operaciones comunitarias “ – para detectar si un medio viola las pautas de la comunidad y necesita ser eliminado antes de que ocurra mucho daño. Sin embargo, las dos plataformas han estado luchando contra una invasión de la privacidad sexual y el acoso en línea, y puede atribuirse a fallas internas y externas. Una investigación interna filtrada reveló recientemente que Facebook distribuyó contenido perturbador que mostraba violencia gráfica o imágenes sexuales a usuarios que no eran expertos en navegar por las redes sociales.
Dando otra vuelta al tema, la compañía ha lanzado una herramienta gratuita para los usuarios que son víctimas de abuso de imagen íntima no consensuada (NCII). La herramienta, que ha sido desarrollada en colaboración con UK Revenge Porn Helpline, cuenta con el respaldo de más de 50 ONG en todo el mundo y estará disponible para los usuarios de Instagram y Facebook en todo el mundo. Ahora con el nombre de Meta, la compañía dice que su herramienta de seguridad no es solo para los usuarios que son víctimas de la “pornografía de venganza”, sino que también puede ser útil para aquellos que temen que les pueda pasar en un futuro cercano. Se pide a los usuarios que creen un sistema de advertencia codificado que detenga la publicación de imágenes y videos íntimos no consensuados, reduciendo los riesgos de manera proactiva.
Un gran paso con un gran inconveniente
Sin embargo, todo el procedimiento puede hacer que los usuarios se sientan incómodos porque el sistema les pide que envíen fotos y videos íntimos para poder emparejarlos. Con respecto al aspecto de la privacidad, Meta dice que el uso de hash le permitirá catalogar los datos identificables en una imagen mientras mantiene los medios en privado para la persona que los envió. Cuando los usuarios comparten una imagen o un video, se convierte instantáneamente en un código digital único mediante un algoritmo que sirve como huella digital para hacer coincidir. Por ejemplo, un duplicado de una imagen tiene la misma huella digital que el original, y así es como entra en acción todo el sistema de identificación y eliminación. La imagen real nunca sale del dispositivo del usuario, y StopNCII, así como las empresas participantes, solo reciben estos datos hash como medida de seguridad.
Apple también se basa en el proceso de generación de hash para detectar material de abuso sexual infantil (CSAM) como parte de su sistema de comparación de fotos iCloud. Meta está utilizando algoritmos estándar de la industria de código abierto para mezclar fotos y videos que se pueden implementar fácilmente en todas las plataformas para hacer coincidir. Pero el sistema también se puede engañar fácilmente con ediciones menores realizadas en una imagen o video NCII. “Si una imagen con hash se edita mediante recorte, filtros agregados o un clip de video, es posible que el hash original no reconozca la imagen. La nueva imagen deberá tener un hash por separado “. dice la sección de preguntas frecuentes de la herramienta de pornografía anti-venganza.
Fuentes: Meta, StopNCII.org