Ícono del sitio La Neta Neta

Se verificará la próxima era de moderación

Se verificará la próxima era de moderación

Desde los albores de Internet, saber (o, quizás más exactamente, no saber) quién está al otro lado de la pantalla ha sido uno de los mayores misterios y emociones. En los primeros días de las redes sociales y los foros en línea, los nombres de usuario anónimos eran la norma y significaban que podías fingir ser quien quisieras ser.

A pesar de lo emocionante y liberador que fue esta libertad, los problemas rápidamente se hicieron evidentes: depredadores de todo tipo han utilizado este manto de anonimato para atacar a víctimas desprevenidas, acosar a cualquiera que no les guste o con el que no estén de acuerdo y difundir información errónea sin consecuencias.

Durante años, la conversación sobre la moderación se ha centrado en dos pilares clave. Primero, ¿qué reglas escribir? ¿Qué contenido se considera aceptable o prohibido, cómo definimos estos términos y quién toma la decisión final en las áreas grises? Y segundo, cómo hacerlos cumplir: ¿cómo podemos aprovechar tanto a los humanos como a la inteligencia artificial para encontrar y marcar contenido inapropiado o incluso ilegal?

Si bien estos siguen siendo elementos importantes para cualquier estrategia de moderación, este enfoque solo señala a los malos actores después de una infracción. Hay otra herramienta igualmente crítica en nuestro arsenal que no recibe la atención que merece: la verificación.

La mayoría de la gente piensa en la verificación como la “marca de verificación azul”, una insignia de honor otorgada a la élite y las celebridades entre nosotros. Sin embargo, la verificación se está convirtiendo en una herramienta cada vez más importante en los esfuerzos de moderación para combatir problemas nefastos como el acoso y la incitación al odio.

Esa marca de verificación azul es más que una simple señal que muestra quién es importante; también confirma que una persona es quien dice ser, lo cual es un medio increíblemente poderoso para hacer que las personas rindan cuentas por sus acciones.

Uno de los mayores desafíos que enfrentan las plataformas de redes sociales en la actualidad es la explosión de cuentas falsas, y el imitador de Brad Pitt en Clubhouse es uno de los ejemplos más recientes. Los bots y los títeres de calcetines esparcen mentiras e información errónea como la pólvora, y se propagan más rápidamente de lo que los moderadores pueden prohibirlos.

Es por eso que Instagram comenzó a implementar nuevas medidas de verificación el año pasado para combatir este problema exacto. Al verificar las identidades reales de los usuarios, Instagram dijo que “podrá comprender mejor cuándo las cuentas intentan engañar a sus seguidores, responsabilizarlos y mantener a nuestra comunidad segura”.

Es importante recordar que la verificación no es una táctica única, sino más bien una colección de soluciones que deben usarse dinámicamente en conjunto para que sean efectivas.

La urgencia de implementar la verificación también es más grande que simplemente detener la difusión de contenido cuestionable. También puede ayudar a las empresas a garantizar que se mantienen en el lado correcto de la ley.

Luego de una exposición que revelaba que se cargaba contenido ilegal en el sitio de Pornhub, la compañía prohibió las publicaciones de usuarios no verificados y eliminó todo el contenido cargado de fuentes no verificadas (más del 80% de los videos alojados en su plataforma). Desde entonces, ha implementado nuevas medidas para verificar a sus usuarios a fin de evitar que este tipo de problema vuelva a infiltrarse en sus sistemas en el futuro.

Las empresas de todo tipo deberían considerar este caso como una advertencia: si hubiera habido una verificación desde el principio, los sistemas habrían estado en un lugar mucho mejor para identificar a los malos actores y mantenerlos fuera.

Sin embargo, es importante recordar que la verificación no es una táctica única, sino más bien una colección de soluciones que deben usarse dinámicamente en conjunto para que sean efectivas. Los malos actores son astutos y actualizan continuamente sus métodos para eludir los sistemas. El uso de una solución de un solo punto para verificar a los usuarios, como a través de una identificación con foto, puede parecer suficiente, pero es relativamente fácil de superar para un estafador motivado.

En Persona, hemos detectado intentos de fraude cada vez más sofisticados que van desde el uso de fotos y datos de celebridades para crear cuentas hasta intrincadas fotografías de identificaciones e incluso el uso de deepfakes para imitar una selfie en vivo.

Por eso es fundamental que los sistemas de verificación tengan en cuenta varias señales al verificar a los usuarios, incluida la información del cliente recopilada activamente (como una identificación con foto), señales pasivas (su dirección IP o huella digital del navegador) y fuentes de datos de terceros (como teléfonos y listas de riesgos por correo electrónico). Al combinar varios puntos de datos, una identificación válida pero robada no pasará a través de las puertas porque señales como la ubicación o los patrones de comportamiento levantarán una bandera roja de que la identidad de este usuario es probablemente fraudulenta o al menos justifica una mayor investigación.

Este tipo de sistema de verificación holístico permitirá que las plataformas sociales y de contenido generado por el usuario no solo disuadir y marcar a los malos actores, sino que también evitarán que ingresen repetidamente a su plataforma con nuevos nombres de usuario y correos electrónicos, una táctica común de los trolls y abusadores de cuentas que han ha sido prohibido.

Más allá de los abusadores de cuentas individuales, un enfoque de múltiples señales puede ayudar a manejar un problema posiblemente mayor para las plataformas de redes sociales: campañas de desinformación coordinadas. Cualquier problema que involucre a grupos de malos actores es como luchar contra la Hidra de múltiples cabezas: cortas una cabeza solo para que dos más vuelvan a crecer en su lugar.

Sin embargo, matar a la bestia es posible cuando tiene un sistema de verificación integral que puede ayudar a sacar a la luz grupos de malos actores basados ​​en propiedades compartidas (por ejemplo, ubicación). Si bien estos grupos continuarán buscando nuevas formas de ingresar, la verificación multifacética que se adapta al usuario final puede ayudar a evitar que corran desenfrenadamente.

Históricamente, los sistemas de verificación de identidad como Jumio o Trulioo fueron diseñados para industrias específicas, como los servicios financieros. Pero estamos comenzando a ver un aumento en la demanda de soluciones independientes de la industria como Persona para mantenerse al día con estos casos de uso nuevos y emergentes para la verificación. Casi todas las industrias que operan en línea pueden beneficiarse de la verificación, incluso aquellas como las redes sociales, donde no hay necesariamente una transacción financiera que proteger.

No es una cuestión de si La verificación se convertirá en parte de la solución para desafíos como la moderación, sino más bien en una cuestión de cuando. La tecnología y las herramientas existen hoy en día, y depende de las plataformas de redes sociales decidir que es hora de hacer de esto una prioridad.




Source link

Salir de la versión móvil