A pesar de servir como fuente de agua en línea para periodistas, políticos y capitalistas de riesgo, Twitter no es la red social más rentable del bloque. En medio de reorganizaciones internas y una mayor presión de los inversores para ganar más dinero, se informó que Twitter consideró monetizar el contenido para adultos.
De acuerdo a un reporte de The Verge, Twitter estaba a punto de convertirse en un competidor de OnlyFans al permitir que los creadores adultos vendieran suscripciones en la plataforma de redes sociales. Esa idea puede sonar extraña al principio, pero en realidad no es tan descabellada: algunos creadores adultos ya confían en Twitter como un medio para publicitar sus cuentas de OnlyFans, ya que Twitter es una de las únicas plataformas importantes en las que publicar pornografía no viola las pautas.
Pero Twitter aparentemente suspendió este proyecto después de que un “equipo rojo” de 84 empleados, diseñado para probar el producto en busca de fallas de seguridad, descubrió que Twitter no puede detectar material de abuso sexual infantil (CSAM) y desnudez no consensuada a gran escala. Twitter también carecía de herramientas para verificar que los creadores y consumidores de contenido para adultos tenían más de 18 años. Según el informe, el equipo de salud de Twitter había estado advirtiendo a los superiores sobre el problema de CSAM de la plataforma desde febrero de 2021.
Para detectar este tipo de contenido, Twitter utiliza una base de datos desarrollada por Microsoft llamada PhotoDNA, que ayuda a las plataformas a identificar y eliminar rápidamente el MASI conocido. Pero si una parte de CSAM aún no forma parte de esa base de datos, las imágenes más nuevas o alteradas digitalmente pueden evadir la detección.
“Ves gente que dice: ‘Bueno, Twitter está haciendo un mal trabajo’”, dijo Matthew Green, profesor asociado del Instituto de Seguridad de la Información de Johns Hopkins. “Y luego resulta que Twitter está usando la misma tecnología de escaneo PhotoDNA que casi todo el mundo”.
Ingresos anuales de Twitter: aproximadamente $ 5 mil millones en 2021, es pequeña en comparación con una empresa como Google, que obtuvo $ 257 mil millones en ingresos el año pasado. Google tiene los medios financieros para desarrollar una tecnología más sofisticada para identificar el abuso sexual infantil, pero estos mecanismos impulsados por el aprendizaje automático no son infalibles. Meta también utiliza API de seguridad de contenido de Google para detectar MASI.
“Este nuevo tipo de tecnología experimental no es el estándar de la industria”, explicó Green.
En uno caso reciente, un padre notó que los genitales de su hijo pequeño estaban hinchados y adoloridos, por lo que se comunicó con el médico de su hijo. Antes de una cita de telemedicina, el padre envió fotos de la infección de su hijo al médico. Los sistemas de moderación de contenido de Google marcaron estas imágenes médicas como MASN, lo que bloqueó al padre de todas sus cuentas de Google. La policía fue alertada y comenzó a investigar al padre, pero, irónicamente, no pudieron comunicarse con él, ya que su número de teléfono de Google Fi estaba desconectado.
“Estas herramientas son poderosas porque pueden encontrar cosas nuevas, pero también son propensas a errores”, dijo Green a TechCrunch. “El aprendizaje automático no conoce la diferencia entre enviarle algo a su médico y el abuso sexual infantil real”.
Aunque este tipo de tecnología se implementa para proteger a los niños de la explotación, a los críticos les preocupa que el costo de esta protección (vigilancia masiva y escaneo de datos personales) sea demasiado alto. Apple planeó lanzar su propia tecnología de detección de CSAM llamada NeuralHash el año pasado, pero el producto fue descartado después de que expertos en seguridad y defensores de la privacidad señalaran que las autoridades gubernamentales podrían abusar fácilmente de la tecnología.
“Sistemas como este podrían informar sobre minorías vulnerables, incluidos padres LGBT en lugares donde la policía y los miembros de la comunidad no son amigables con ellos”, escribió Joe Mullin, analista de políticas de Electronic Frontier Foundation, en una entrada de blog. “El sistema de Google podría denunciar erróneamente a los padres a las autoridades en países autocráticos, o lugares con policías corruptos, donde los padres acusados erróneamente no pueden estar seguros del debido proceso”.
Esto no significa que las plataformas sociales no puedan hacer más para proteger a los niños de la explotación. Hasta febrero, Twitter no tenía una forma para que los usuarios marcaran el contenido que contenía CSAM, lo que significa que parte del contenido más dañino del sitio web podría permanecer en línea durante largos períodos de tiempo después de los informes de los usuarios. El año pasado, dos personas demandó a Twitter por supuestamente lucrarse a partir de videos que fueron grabados de ellos como víctimas adolescentes del tráfico sexual; el caso se dirige a la Corte de Apelaciones del Noveno Circuito de EE.UU. En este caso, los demandantes afirmaron que Twitter no eliminó los videos cuando se le notificó sobre ellos. Los videos acumularon más de 167,000 visitas.
Twitter enfrenta un problema difícil: la plataforma es lo suficientemente grande como para que sea casi imposible detectar todo el MASI, pero no genera suficiente dinero para invertir en medidas de seguridad más sólidas. De acuerdo a El informe de Verge, la posible adquisición de Twitter por parte de Elon Musk también ha afectado las prioridades de los equipos de salud y seguridad de la empresa. La semana pasada, Twitter supuestamente reorganizó su equipo de salud para centrarse en la identificación de cuentas de spam: Musk ha afirmado fervientemente que Twitter miente sobre la prevalencia de bots en la plataforma, citando esta como su razón para querer rescindir el acuerdo de $ 44 mil millones.
“Todo lo que hace Twitter que sea bueno o malo se sopesará ahora a la luz de ‘¿Cómo afecta esto al juicio? [with Musk]?” dijo verde. “Podría haber miles de millones de dólares en juego”.
Twitter no respondió a la solicitud de comentarios de TechCrunch.
Source link