Unitary, una startup que está desarrollando IA para automatizar la moderación de contenido para “contenido dañino” para que los humanos no tengan que hacerlo, ha recaudado £ 1.35 millones en fondos. La compañía todavía está en modo de desarrollo, pero lanzó una prueba de su tecnología en septiembre.
Dirigido por GFC de Rocket Internet, la ronda de semillas también incluye el respaldo de Jane VC (la firma fría amigable con el correo electrónico que respalda nuevas empresas lideradas por mujeres), SGH Capital y varios inversores ángeles no identificados. Unitary había recaudado previamente fondos pre-semilla de Entrepreneur First, como alumno del programa de creación de empresas.
“Cada minuto, se suben a Internet más de 500 horas de videos nuevos, y el volumen de contenido perturbador, abusivo y violento que se pone en línea es bastante sorprendente”, dijo el CEO y cofundador de Unitary, Sasha Haco, quien trabajó anteriormente con Stephen. Hawking en los agujeros negros, me dice. “Actualmente, la seguridad de Internet se basa en ejércitos de moderadores humanos que tienen que vigilar y eliminar material inapropiado. Pero los humanos no pueden seguir el ritmo ”.
El volumen de contenido cargado no solo aumenta constantemente, sino que las personas empleadas para moderar el contenido en plataformas como Facebook pueden sufrir mucho. “La exposición repetida a imágenes tan perturbadoras está dejando a muchos moderadores con TEPT”, dice Haco. “Las regulaciones están respondiendo a esta crisis y presionando cada vez más a las plataformas para que traten con contenido dañino y protejan a nuestros niños de lo peor de Internet. Pero actualmente, no hay una solución adecuada ”.
Que, por supuesto, es donde Unitary quiere intervenir, con la misión declarada de “hacer de Internet un lugar más seguro” mediante la detección automática de contenido dañino. Su tecnología de inteligencia artificial patentada, que utiliza técnicas de visión por computadora y gráficas “de vanguardia”, afirma ser capaz de reconocer contenido dañino en el punto de carga, incluyendo “interpretar el contexto para abordar incluso los videos más matizados”, explica Haco .
Mientras tanto, aunque ya hay varias soluciones ofrecidas a los desarrolladores que pueden detectar contenido restringido que es más obvio, como la desnudez explícita o la violencia extrema (AWS, por ejemplo, tiene una API de este tipo), el CEO de Unitary argumenta que ninguno de estos es remotamente lo suficientemente bueno como para “desplazar verdaderamente la participación humana”.
“Estos sistemas no comprenden comportamientos o signos más sutiles, especialmente en video”, dice ella. “Si bien la IA actual puede manejar bien los videoclips cortos, los videos más largos aún requieren humanos para comprenderlos. Además de esto, a menudo es el contexto de la carga lo que marca la diferencia en su significado, y la capacidad de incorporar la comprensión contextual es extremadamente desafiante y fundamental para la moderación. Estamos abordando cada uno de estos problemas centrales con el fin de lograr una tecnología que, incluso a corto plazo, reduzca masivamente el nivel de participación humana requerida y algún día logre un Internet mucho más seguro ”.
Source link