Facebook apesta, pero esta IA podría hacer que apesta menos

Facebook apesta, pero esta IA podría hacer que apesta menos

La red social afirma que Few-Shot Learner puede identificar publicaciones problemáticas en solo seis semanas, en comparación con los seis meses anteriores que necesitaba la IA.

Facebook ha divulgado detalles de su nuevo sistema de moderación de inteligencia artificial (IA) y afirma que es incluso mejor para descubrir publicaciones incorrectas que la iteración anterior. La red social se ha enfrentado durante mucho tiempo a desafíos para controlar el contenido de su plataforma, una situación que solo se ve agravada por el tamaño de su base de usuarios y el gran volumen de idiomas que admite. Cuantas más personas se unen a Facebook, más tiene que monitorear lo que dicen y las lenguas contrastantes con las que lo dicen.

A lo largo de los años, la firma propiedad de Meta ha tenido que abordar todo, desde la pornografía de venganza y la desinformación sobre COVID-19 hasta la interferencia electoral y el genocidio en Myanmar. Pero así como cada problema es diferente, a menudo se necesitan las habilidades para identificar y eliminar el contenido asociado. Para eso, la compañía cuenta con un ejército de moderadores humanos cuyo trabajo es examinar los informes de publicaciones potencialmente ofensivas. Aún así, para una operación del tamaño de Facebook, reclutar suficientes personas para hacer ese trabajo es difícil de escalar, por lo que se basa en herramientas de inteligencia artificial para servir como defensa de primera línea. Esos programas se entrenan en una gran cantidad de datos de muestra (imágenes, videos, texto), lo que permite que la máquina aprenda de manera efectiva qué constituye un contenido incorrecto para luego poder eliminarlo.

VIDEO DEL DIA

Facebook ha introducido un nuevo sistema de inteligencia artificial llamado Few-Shot Learner, que dice que es más eficiente para descubrir material preocupante. Como Cableado señala, la plataforma social con sede en Menlo Park afirma que Few-Shot Learner puede trabajar con un conjunto de entrenamiento más pequeño, lo que le permite enfrentarse al contenido infractor en solo seis semanas, en comparación con el rango anterior de seis meses. Facebook dice que introdujo por primera vez Few-Shot Learner a principios de este año, y que ya puede manejar publicaciones que alienten a otros a no vacunarse contra COVID-19, una regla que entró en vigencia en septiembre.

Mejor interpretación de las reglas

Cornelia Carapcea, gerente de productos de inteligencia artificial de Facebook, dice que no es solo la capacidad de trabajar con conjuntos de entrenamiento más pequeños lo que hace que Few-Shot Learner sea tan útil, sino que también puede interpretar mejor los términos de usuario de la plataforma. Por lo general, los moderadores humanos tienen que hacer una referencia cruzada a un manual que cubre miles de reglas y se modifica constantemente para cubrir cada vez más casos extremos. Fue en parte debido a este nivel de complejidad que Facebook introdujo una Junta de Supervisión para monitorear las reglas que hizo cumplir. Carapcea afirma que Few-Shot Learner puede identificar mejor las infracciones utilizando solo indicaciones amplias.

Aún así, a pesar de toda la promesa, la capacidad de Facebook para moderar el contenido en culturas que no hablan inglés a menudo ha sido un punto clave de crítica. A principios del otoño de 2021, un ex Facebook El empleado filtró documentos relacionados con la investigación interna y destacó sus debilidades de supervisión global a los legisladores de EE. UU. y Reino Unido. Ahora, la red social está tratando de abordar esos ataques al revelar obras de Few-Shot Learner en 100 idiomas. Eso todavía está muy por debajo de los cientos utilizados en la plataforma, pero es una señal de que la empresa está en una mejor posición de la que estaba. Si la empresa puede seguir repitiendo la herramienta, podría mejorar su reputación dañada.

Fuente: Wired




Source link