Ícono del sitio La Neta Neta

Facebook implementa IA para detectar publicaciones suicidas antes de que sean reportadas

Facebook implementa IA para detectar publicaciones suicidas antes de que sean reportadas

Este es un software para salvar vidas. La nueva tecnología de inteligencia artificial de “detección proactiva” de Facebook escaneará todas las publicaciones en busca de patrones de pensamientos suicidas y, cuando sea necesario, enviará recursos de salud mental al usuario en riesgo o a sus amigos, o contactará a los socorristas locales. Mediante el uso de IA para señalar publicaciones preocupantes a moderadores humanos en lugar de esperar los informes de los usuarios, Facebook puede reducir el tiempo que se tarda en enviar ayuda.

Facebook previamente Probado usando IA para detectar publicaciones preocupantes y mostrar de manera más prominente las opciones de informes de suicidio a amigos en los EE. UU. Ahora Facebook buscará todo tipo de contenido alrededor del mundo con esta IA, excepto en la Unión Europea, donde Reglamento General de Protección de Datos las leyes de privacidad sobre la elaboración de perfiles de usuarios en función de información confidencial complican el uso de esta tecnología.

Facebook también usará IA para priorizar informes de usuarios particularmente riesgosos o urgentes para que los moderadores los aborden más rápidamente, y herramientas para mostrar instantáneamente recursos en el idioma local e información de contacto de primeros auxilios. También está dedicando más moderadores a la prevención del suicidio, capacitándolos para tratar los casos las 24 horas del día, los 7 días de la semana, y ahora cuenta con 80 socios locales como Save.org, National Suicide Prevention Lifeline y Forefront desde los cuales brinda recursos a los usuarios en riesgo y sus redes. .

“Se trata de ahorrar minutos en cada paso del proceso, especialmente en Facebook Live”, dice Guy Rosen, vicepresidente de gestión de productos. Durante el último mes de pruebas, Facebook inició más de 100 “controles de bienestar” con socorristas que visitan a los usuarios afectados. “Ha habido casos en los que llegó el socorrista y la persona todavía está transmitiendo”.

La idea de que Facebook escanee de manera proactiva el contenido de las publicaciones de las personas podría desencadenar algunos temores distópicos sobre cómo se podría aplicar la tecnología. Facebook no tenía respuestas sobre cómo evitaría escanear la disidencia política o los delitos menores, y Rosen simplemente dijo “tenemos una oportunidad de ayudar aquí, así que vamos a invertir en eso”. Ciertamente, hay aspectos beneficiosos masivos sobre la tecnología, pero es otro espacio en el que no tenemos más remedio que esperar que Facebook no vaya demasiado lejos.

[Update: Facebook’s chief security officer Alex Stamos responded to these concerns with a heartening tweet signaling that Facebook does take seriously responsible use of AI.

The creepy/scary/malicious use of AI will be a risk forever, which is why it’s important to set good norms today around weighing data use versus utility and be thoughtful about bias creeping in. Also, Guy Rosen and team are amazing, great opportunity for ML engs to have impact. https://t.co/N9trF5X9iM

— Alex Stamos (@alexstamos) November 27, 2017

Facebook CEO Mark Zuckerberg praised the product update in a post today, writing that “In the future, AI will be able to understand more of the subtle nuances of language, and will be able to identify different issues beyond suicide as well, including quickly spotting more kinds of bullying and hate.”

Unfortunately, after TechCrunch asked if there was a way for users to opt out, of having their posts a Facebook spokesperson responded that users cannot opt out. They noted that the feature is designed to enhance user safety, and that support resources offered by Facebook can be quickly dismissed if a user doesn’t want to see them.]

Facebook entrenó a la IA al encontrar patrones en las palabras y las imágenes utilizadas en publicaciones que se informaron manualmente por riesgo de suicidio en el pasado. También busca comentarios como “¿estás bien?” y “¿Necesitas ayuda?”

“Hemos hablado con expertos en salud mental, y una de las mejores maneras de ayudar a prevenir el suicidio es que las personas que lo necesitan escuchen a amigos o familiares que se preocupan por ellos”, dice Rosen. “Esto coloca a Facebook en una posición realmente única. Podemos ayudar a conectar a las personas que están en peligro con amigos y organizaciones que pueden ayudarlos”.

Cómo funcionan los informes de suicidio en Facebook ahora

A través de la combinación de IA, moderadores humanos e informes colaborativos, Facebook podría tratar de prevenir tragedias como cuando un Padre se suicidó en Facebook Live el mes pasado. Las transmisiones en vivo en particular tienen el poder de glorificar erróneamente el suicidio, de ahí las nuevas precauciones necesarias, y también de afectar a una gran audiencia, ya que todos ven el contenido simultáneamente, a diferencia de los videos grabados de Facebook que se pueden marcar y eliminar antes de que muchos los vean. gente.

Ahora, si alguien está expresando pensamientos de suicidio en cualquier tipo de publicación de Facebook, la IA de Facebook lo detectará de manera proactiva y lo señalará a moderadores humanos capacitados en prevención, y hará que las opciones de informes para los espectadores sean más accesibles.

Cuando llega un informe, la tecnología de Facebook puede resaltar la parte de la publicación o el video que coincide con los patrones de riesgo de suicidio o que recibe comentarios preocupantes. Eso evita que los moderadores tengan que hojear un video completo ellos mismos. AI prioriza los informes de los usuarios como más urgentes que otros tipos de violaciones de la política de contenido, como mostrar violencia o desnudez. Facebook dice que estos informes acelerados se envían a las autoridades locales el doble de rápido que los informes no acelerados.

Mark Zuckerberg se pone lloroso al hablar sobre la desigualdad durante su discurso de graduación en Harvard en mayo

Las herramientas de Facebook muestran recursos en el idioma local de sus socios, incluidas líneas telefónicas directas para la prevención del suicidio y autoridades cercanas. Luego, el moderador puede contactar a los respondedores e intentar enviarlos a la ubicación del usuario en riesgo, mostrar los recursos de salud mental al usuario en riesgo o enviarlos a amigos que puedan hablar con el usuario. “Uno de nuestros objetivos es garantizar que nuestro equipo pueda responder en todo el mundo en cualquier idioma que admitamos”, dice Rosen.

En febrero, el CEO de Facebook, Mark Zuckerberg escribió que “Ha habido eventos terriblemente trágicos, como suicidios, algunos transmitidos en vivo, que tal vez podrían haberse evitado si alguien se hubiera dado cuenta de lo que estaba sucediendo y lo hubiera informado antes. . . La inteligencia artificial puede ayudar a proporcionar un mejor enfoque”.

Con más de 2 mil millones de usuarios, es bueno ver a Facebook dando un paso al frente aquí. Facebook no solo ha creado una forma para que los usuarios se pongan en contacto y se cuiden entre sí. Desafortunadamente, también creó un canal de distribución en tiempo real sin intermediarios en Facebook Live que puede atraer a las personas que quieren una audiencia para la violencia que se infligen a sí mismos oa otros.

La creación de una utilidad de comunicación global omnipresente conlleva responsabilidades que van más allá de las de la mayoría de las empresas de tecnología, que Facebook parece estar aceptando.




Source link

Salir de la versión móvil