Spectrum Labs recauda $ 10 millones para su plataforma basada en inteligencia artificial para combatir la toxicidad en línea

Spectrum Labs recauda $ 10 millones para su plataforma basada en inteligencia artificial para combatir la toxicidad en línea

Ahora que faltan 40 días para las elecciones presidenciales de EE. UU., Todos los ojos se centran en cómo las conversaciones en línea, junto con otros sellos distintivos de la vida en línea, como videos virales, clips de noticias y anuncios engañosos, se utilizarán y, a menudo, se abusarán de ellas para influir en las decisiones de las personas.

Pero el discurso político, por supuesto, es solo una de las formas en que el contenido generado por el usuario en Internet se usa indebidamente con fines tóxicos. Hoy, una startup que usa IA para tratar de abordarlos todos está anunciando algunos fondos.

Spectrum Labs, que ha creado algoritmos y un conjunto de API que se pueden usar para moderar, rastrear, marcar y, en última instancia, detener el acoso, el discurso de odio, la radicalización y otros 40 perfiles de comportamiento tóxico, en inglés y en varios otros idiomas, ha recaudó $ 10 millones en una ronda de financiamiento Serie A, capital que la compañía planea utilizar para continuar expandiendo su plataforma.

La financiación está siendo dirigida por Greycroft, con Wing Venture Capital, Ridge Ventures, Global Founders Capital y Super {set} también participando. La compañía ha recaudado alrededor de $ 14 millones hasta la fecha.

La conexión de Spectrum Labs con la lucha contra el discurso político tóxico no es casual.

El CEO Justin Davis dijo que la startup se fundó a raíz de las elecciones anteriores de EE. UU. En 2016, cuando él y su cofundador Josh Newman (el CTO), quien provenía del mundo de la tecnología de marketing (ellos y otros 9 empleados de Spectrum todos trabajaron juntos en Krux y luego en Salesforce después de que Krux fuera adquirido) – se vieron impulsados ​​a construir algo que pudiera ayudar a combatir toda la toxicidad en línea, lo que sentían que tenía un papel muy importante que desempeñar no solo en cómo se desarrollaron las elecciones, sino también en el grandes brechas que se establecen y se manifiestan todos los días, en Internet y más allá.

“Todos estábamos buscando alguna forma de involucrarnos”, dijo. “Queríamos utilizar nuestra experiencia de big data” – la especialidad de Krux era la categorización de contenido en línea para que los especialistas en marketing midieran mejor sus campañas – “para hacer algo bueno en el mundo”.

Actualmente, Spectrum Labs trabaja con una amplia gama de empresas, desde gigantes de los juegos (Riot Games es un cliente), hasta redes sociales (Pinterest es otro), sitios de citas en línea (Meet Group es uno más), mercados (Mercari es el cuarto). , Marcas y organizaciones de DTC que desean realizar un seguimiento de sus propias conversaciones internas.

La plataforma principal de la empresa se llama “guardián” (que no debe confundirse con el periódico del mismo nombre, cuyo logotipo se parece) y se presenta en forma de panel si lo necesita, o simplemente como un conjunto de servicios que puede integrar, parece, en el tuyo.

Los clientes pueden usar la tecnología para verificar y examinar sus políticas existentes, obtener orientación sobre cómo mejorarlas y usar un marco para crear nuevas muestras y etiquetas para entrenar modelos para rastrear mejor el contenido en el futuro.

Las herramientas para la moderación de contenido han existido durante años, pero en gran medida han sido complementos muy simplistas para los equipos humanos, marcando palabras clave y cosas por el estilo (que como ahora podemos arrojar muchos falsos positivos).

Pero más recientemente, los avances en inteligencia artificial han sobrealimentado ese trabajo, una llegada que ha llegado no demasiado pronto, considerando cómo las conversaciones en línea han crecido exponencialmente con el aumento de la popularidad de las redes sociales y el chat en línea en general.

La plataforma basada en inteligencia artificial de Spectrum Labs está configurada actualmente para buscar más de 40 tipos de perfiles de comportamiento tóxico, como acoso, incitación al odio, estafas, acicalamiento, solicitación ilegal y doxxing, un conjunto de perfiles que creó inicialmente en consulta con investigadores y académicos de todo el mundo y continúa perfeccionándose a medida que ingiere más datos de toda la web.

La startup no es la única que está aprovechando la IA para apuntar y corregir el comportamiento tóxico. Solo este año, por ejemplo, también hemos visto a la startup de inteligencia artificial Sentropy, que también se enfoca en las conversaciones en las redes sociales, recaudando dinero y saliendo del sigilo, y L1ght también anuncia fondos para su propia versión para abordar la toxicidad en línea.

De hecho, lo que ha sido notable no es solo el surgimiento de otras startups que construyen negocios en torno a la lucha por la buena batalla, sino ver a los inversores interesados ​​en respaldarlos, en lo que podrían no ser las empresas más lucrativas, sino definitivamente esfuerzos que ayudarán a la sociedad a mejorar. a largo plazo.

“Justin y Josh tienen valor y resistencia y se necesita un conjunto único de líderes y equipo”, dijo Alison Engel, socia de riesgo en Greycroft. “Pero, como inversores, sabemos que resolver los problemas más sistémicos también requiere capital. Tienes que invertir detrás de ellos. Para lograrlo, necesitará coaliciones, plataformas que se unan. Mucho de esto es un problema arraigado en los datos y lo que los hace más sólidos, en segundo lugar están las personas detrás de ellos y en tercer lugar, el capital “.

Dijo que se siente como si hubiera una marea cambiante en este momento entre los capitalistas de riesgo y dónde eligen poner su dinero.

“Cuando miras a la comunidad inversora que apoya y prospera en el crecimiento de la comunidad, tienes que pensar, ¿cuál es nuestro sistema de valores aquí? Necesitamos invertir en las plataformas que son parte de este bien mayor, y está comenzando a ver que los inversores responden a eso “.


Source link