Esta aplicación de citas luchó contra los estafadores con bots... se produjo la hilaridad

Esta aplicación de citas luchó contra los estafadores con bots… se produjo la hilaridad

Conoces el sentimiento; estás en una aplicación de citas, y comienzas una conversación con alguien, y las cosas no parecen cuadrar por completo. Has visto El estafador de Tinder en Netflix, y de repente te preguntas: ¿Alguien me va a pedir dinero? el equipo de sitio de citas por video Filtrar desactivado decidió adoptar un enfoque novedoso: cada estafador detectado se agregó a un grupo lateral de aspirantes a citas que solo contenían sus propios chatbots haciéndose pasar por adorables solteros y otros estafadores. Como era de esperar, se produjo la hilaridad.

Como plataforma, Filter Off es una aplicación de citas en video, lanzada al comienzo de los bloqueos de COVID-19. A medida que las citas pasaron de bares, galerías y picnics a centrarse más en chats y videos, la compañía despegó, ofreciendo eventos virtuales de citas rápidas sobre varios temas; Noche de cita de Harry Potter, noche de cita de amantes de los perros, noche de cita de la ciudad de Nueva York, lo que sea. La plataforma tiene cientos de miles de usuarios y, a medida que su popularidad creció entre los humanos que buscaban amor, los fundadores descubrieron que también atraía a un segundo grupo de personas: humanos que buscaban dinero.

“La primera vez que noté que había un problema fue cuando vi que George Clooney se había unido a Filter Off. Yo estaba como, ‘Mierda, esto es salvaje, no puedo creer…’ pero luego miré más de cerca su perfil”, se ríe Brian Weinreich, jefe de producto de Filter Off, en una entrevista con TechCrunch. Se dio cuenta de que Clooney probablemente no estaría en un sitio de citas, e incluso si lo estuviera, no sería un hombre de 34 años de Lagos, Nigeria. “Eliminé su perfil para sacarlos de la aplicación. Luego comencé a notar todos estos perfiles que parecen personas reales, pero eran todos estos perfiles diferentes que no cuadraban”.

El equipo del producto decidió tratar de solucionar el problema con algoritmos y creó un software que clasificaría a los usuarios en humanos, y “en función de ciertas características que estoy empezando a notar, sobre cómo las personas se registran, cómo usan la aplicación”. “Es muy probable que sean un estafador. El equipo siguió eliminando los perfiles, pero por cada estafador que eliminaban, aparecían otros cinco en su lugar, al estilo de Medusa.

“Yo estaba como, está bien, necesitamos una manera en la que podamos deshacernos de los estafadores, pero debe ser de una manera que no puedan simplemente regresar y volver a unirse a la plataforma”, dijo Weinreich. “Recordé que Reddit y otras plataformas tienen una forma de ‘prohibición en la sombra’, donde los usuarios pueden seguir publicando, pero los usuarios normales no ven su contenido”.

Y así comenzó el trabajo. El equipo usó GPT-3 para crear una serie de chatbots, combinados con un script que genera rostros humanos, para crear una serie de perfiles falsos. La advertencia: estos perfiles no son vistos por usuarios “normales”, solo por personas que el algoritmo ha determinado que son estafadores. Los pusieron en un grupo de miles de bots que se ven y hablan como personas reales.

“La parte divertida es que suceden dos cosas. Primero, los estafadores se encontrarán con otros bots, pero también se encontrarán con otros estafadores, y están tratando de estafarse unos a otros”, se ríe Weinreich. “Son como ‘Quiero $40 para una tarjeta de regalo de Google Play’ y el otro estafador responde ‘no, no me das una tarjeta de regalo’ y siguen discutiendo. Es solo esta cosa hilarante, donde actualmente en nuestra aplicación, tenemos probablemente más de 1,000 estafadores que conozco que están hablando activamente solo con bots. Es genial. Están perdiendo el tiempo y no tienen que tratar con nuestros usuarios reales”.

La plataforma tiene funciones de informe y bloqueo donde los usuarios reales pueden denunciar posibles estafadores. Cuando se informa, el equipo puede mejorar su algoritmo y también colocar manualmente a los estafadores en el grupo de bots.

“Lo más divertido de nuestra función de informes es la cantidad de informes que recibo de estafadores que informan que están hablando con un bot. Estoy como ‘sí, lo sé, ese es el punto’”, se encoge de hombros Weinreich.

La empresa recolectó algunas de las conversaciones más absurdas que los estafadores tuvieron entre ellos y con los bots en su propio blogque también vale la pena leer.


Source link