Spectrum Labs recauda $ 10 millones para su plataforma basada en IA para combatir la toxicidad en línea

Spectrum Labs recauda $ 10 millones para su plataforma basada en IA para combatir la toxicidad en línea

A 40 días de las elecciones presidenciales de EE. UU., todos los ojos están centrados en cómo las conversaciones en línea, junto con otras características distintivas de la vida en línea, como videos virales, clips de noticias y anuncios engañosos, se utilizarán y, a menudo, se abusarán de ellas para influir en las decisiones de las personas.

Pero el discurso político, por supuesto, es solo una de las formas en que el contenido generado por los usuarios en Internet se usa indebidamente para fines tóxicos. Hoy, una startup que está utilizando IA para tratar de abordarlos a todos anuncia algunos fondos.

laboratorios de espectro — que ha creado algoritmos y un conjunto de API que se pueden usar para moderar, rastrear, marcar y, en última instancia, detener el acoso, la incitación al odio, la radicalización y otros 40 perfiles de comportamiento tóxico, en inglés y en muchos otros idiomas — ha recaudado $10 millones en una ronda de financiación Serie A, capital que la compañía prevé utilizar para seguir ampliando su plataforma.

La financiación está siendo dirigida por Greycroft, con la participación de Wing Venture Capital, Ridge Ventures, Global Founders Capital y Super{set}. La compañía ha recaudado alrededor de $ 14 millones hasta la fecha.

La conexión de Spectrum Labs con la lucha contra el discurso político tóxico no es incidental.

El CEO Justin Davis dijo que la startup se fundó a raíz de las elecciones estadounidenses anteriores en 2016, cuando él y su cofundador Josh Newman (el CTO), que procedían del mundo de la tecnología de marketing (ellos y otros 9 empleados en Spectrum todos trabajaron juntos en Krux y luego en Salesforce después de que Krux fuera adquirido por esta)— se vieron impulsados ​​a construir algo que pudiera ayudar a combatir toda la toxicidad en línea, que sintieron que tuvo un papel muy importante no solo en cómo se desarrollaron las elecciones sino también en el grandes divisiones que se establecen y se desarrollan todos los días, en Internet y más allá.

“Todos estábamos buscando alguna manera de involucrarnos”, dijo. “Queríamos usar nuestra experiencia con big data” (la especialidad de Krux era la categorización de contenido en línea para que los especialistas en marketing midieran mejor sus campañas) “para hacer algo bueno en el mundo”.

Spectrum Labs trabaja hoy con una amplia gama de empresas, desde gigantes de juegos (Riot Games es un cliente), hasta redes sociales (Pinterest es otro), sitios de citas en línea (Meet Group es uno más), mercados (Mercari es un cuarto) , marcas de DTC y organizaciones que desean realizar un seguimiento de sus propias conversaciones internas.

La plataforma principal de la empresa se llama “guardián” (que no debe confundirse con el periódico del mismo nombre, cuyo logotipo se asemeja) y viene en forma de tablero si lo necesita, o simplemente un conjunto de servicios que puede integrar, parece, en su propio.

Los clientes pueden usar la tecnología para verificar y examinar sus políticas existentes, obtener orientación sobre cómo mejorarlas y usar un marco para crear nuevas muestras y etiquetas para entrenar modelos para rastrear mejor el contenido en el futuro.

Las herramientas para la moderación de contenido han existido durante años, pero en gran medida han sido complementos muy simplistas de los equipos humanos, marcando palabras clave y similares (que, como ahora, pueden arrojar muchos falsos positivos).

Pero más recientemente, los avances en inteligencia artificial han potenciado ese trabajo, una llegada que no ha llegado demasiado pronto, considerando cómo las conversaciones en línea han crecido exponencialmente con el aumento de la popularidad de las redes sociales y el chat en línea en general.

La plataforma basada en IA de Spectrum Labs está actualmente configurada para buscar más de 40 tipos de perfiles de comportamiento tóxico, como acoso, incitación al odio, estafas, preparación, solicitud ilegal y doxing, un conjunto de perfiles que creó inicialmente en consulta con investigadores y académicos de todo el mundo y continúa perfeccionándose a medida que ingiere más datos de toda la web.

La startup no es la única que está aprovechando la IA para apuntar y corregir el comportamiento tóxico. Solo este año, por ejemplo, también hemos visto a la startup de inteligencia artificial Senttropy, que también se enfoca en las conversaciones de las redes sociales, recaudar dinero y salir del sigilo y L1ght también anuncia financiación por su propia opinión sobre cómo abordar la toxicidad en línea.

De hecho, lo que ha sido notable no es solo el surgimiento de otras nuevas empresas que construyen negocios en torno a la lucha por la buena batalla, sino ver inversores interesados ​​​​en respaldarlos, en lo que podrían no ser las empresas más lucrativas, pero definitivamente esfuerzos que ayudarán a la sociedad a mejorar. a más largo plazo.

“Justin y Josh tienen agallas y resiliencia y se necesita un conjunto único de líderes y un equipo”, dijo Alison Engel, socia de riesgo en Greycroft. “Pero como inversionistas, sabemos que para resolver la mayoría de los problemas sistémicos también se requiere capital. Tienes que invertir detrás de ellos. Para lograrlo, necesitará coaliciones, plataformas que se unan. Mucho de esto es un problema arraigado en los datos y haciéndolos más sólidos, en segundo lugar está la gente que está detrás y en tercer lugar está el capital”.

Ella dijo que parece que hay una marea cambiante en este momento entre los capitalistas de riesgo y dónde eligen poner su dinero.

“Cuando miras a la comunidad de inversión apoyando y prosperando en el crecimiento de la comunidad, tienes que pensar, ¿cuál es nuestro sistema de valores aquí? Necesitamos invertir en las plataformas que son parte de este bien mayor, y está comenzando a ver que los inversores responden a eso”.


Source link