Ícono del sitio La Neta Neta

¿Por qué la tecnología nunca podrá predecir el próximo tiroteo masivo?

¿Por qué la tecnología nunca podrá predecir el próximo tiroteo masivo?

Después de los horribles tiroteos masivos en El Paso y Dayton durante el fin de semana, el presidente Trump ha pedido a las empresas privadas, en particular a las empresas de redes sociales, que desarrollen nuevas herramientas para mostrar "banderas rojas" que podrían ayudar a identificar a los tiradores violentos antes de actuar. Trump dice que estas herramientas podrían permitir que el gobierno actúe antes para evitar bajas masivas.

¿El problema? Con el estado actual de la tecnología de inteligencia artificial y la continua negligencia de las plataformas de redes sociales para proteger la vida humana, esto simplemente no es una idea factible. Este es el por qué.

Técnicamente, esta es una solicitud casi imposible.

Los algoritmos predictivos son difíciles de hacer. Para algoritmos simples y básicos para hacer predicciones, necesitan muchos datos. Desde la perspectiva de las redes sociales, hay una gran cantidad de datos sobre todo, desde el número de seguidores, hasta la frecuencia de las publicaciones y el número promedio de caracteres en publicaciones específicas. Pero el verdadero problema es que un algoritmo necesita equilibrar los datos de entrada con los datos de salida.

En resumen, el algoritmo necesita demostrar que todos As + todos Bs = C. Y si bien ha habido un número inaceptable de tiroteos masivos, ha habido no Ha sido el número de disparos necesarios para crear una herramienta responsable y predecible.

Los modelos predictivos para algo como el precio de las acciones son lo suficientemente difíciles de generar. Sin embargo, esos modelos tienen millones de puntos de datos de entrada y salida, por lo que al menos todavía son posibles herramientas predictivas razonables. Pero seguirían siendo poco fiables, porque hay una gran variedad de factores que intervienen en la predicción del rendimiento de las acciones.

La IA, en su estado actual, no puede salvarnos porque no está prediciendo el futuro.

Los innumerables factores que conducen a la violencia son aún más difíciles de cuantificar. Dada la gran discrepancia entre los datos de entrada y salida para los tiroteos masivos, hay pocas posibilidades de encontrar un modelo estadístico que pueda funcionar con precisión.

Los algoritmos actuales generalmente funcionan mejor cuando observan un número determinado de circunstancias y hacen predicciones a partir de esas variables. Es por eso que la IA puede ser buena en el ajedrez o incluso en el juego de mesa ¡Ir! De hecho, esta capacidad para que la IA funcione dentro de los límites de un conjunto de problemas específico es lo que le permite trabajar muy rápidamente para resolver un problema específico.

Pero trabajar dentro de ese conjunto también es la mayor limitación de AI. En John Brockman Mentes posibles: 25 formas de ver la IA, David Deutsch observa que "una simple IA es incapaz de tener tales ideas, porque la capacidad de considerarlas ha sido diseñada fuera de su constitución". La IA no es creativa y le resulta difícil predecir lo desconocido. Este es un gran problema con respecto a la predicción de acciones violentas.

Go Nakamuraimágenes falsas

"No hay un único perfil de personalidad que pueda predecir de manera confiable quién recurrirá a la violencia armada", dijo Arthur C. Evans, Jr., Ph.D., CEO de la Asociación Americana de Psicología, en un comunicado de prensa. De hecho, cuando se habla específicamente de incidentes de víctimas en masa, debido a que el tamaño de la muestra es limitado, es difícil hacer declaraciones claras sobre quién es probable que actúe violentamente o cuándo.

Los incidentes con víctimas en masa son a menudo inesperados. Piense en Columbine, Parkland, Sandy Hook, El Paso, Dayton o cualquiera de los cientos de tiroteos trágicos en Estados Unidos en los últimos años. Debido a que fueron actos de violencia horribles y sin precedentes, un modelo predictivo probablemente no podría "comprender" el potencial de esa acción. La violencia sin precedentes es casi imposible de predecir por humanos o máquinas.

La IA, en su estado actual, no puede salvarnos porque no está prediciendo el futuro. Simplemente está compartiendo resultados probables basados ​​en precedentes históricos.

Filosóficamente, las compañías de redes sociales no deben usarse en lugar de herramientas gubernamentales.

Las bajas masivas y los eventos de cisne negro son el resultado de una amplia gama de parámetros que incluyen factores sociales, económicos, psicológicos y fisiológicos. Uno de esos factores puede ser las redes sociales.

En Zucked, Roger McNamee reconoce la creciente inestabilidad de nuestros sistemas democráticos, económicos y políticos debido al papel que las redes sociales desempeñan actualmente en nuestra sociedad. Peter Singer hace un argumento muy similar en LikeWar: Facebook, Twitter y similares se crearon con objetivos simples para conectar a las personas en línea, pero han hecho poco para proteger a sus usuarios. Como resultado, las plataformas han sido armadas y utilizadas para incitar a la violencia. Esto ha llevado a la difusión de puntos de vista extremos y maliciosos.

McNamee llama al entorno de las redes sociales que refuerza las opiniones extremas de las personas "burbujas de filtro", y dice: "los usuarios confían en lo que encuentran en las redes sociales". Confían en él porque parece originarse de amigos y, gracias a las burbujas de filtro, se ajusta a las creencias preexistentes de cada usuario. Cada usuario tiene su propio Show de Truman, diseñados para presionar botones emocionales, incluidos los relacionados con el miedo y la ira ".

Las redes sociales prosperan cuando los usuarios pasan más tiempo en las redes sociales. Y las personas pasan más tiempo en estos sitios cuando el contenido de sus burbujas de filtro refuerza sus propias ideas. De hecho, las redes sociales son a menudo donde ocurre la radicalización.

Los gigantes de las redes sociales afirman su intención no es la radicalización, por supuesto. Pero la radicalización es un resultado estudiado de los algoritmos que recomiendan artículos o videos a los usuarios. Esto se debe al hecho de que los motores de redes sociales recomiendan contenido similar al contenido previamente consumido, lo que lleva a un sesgo de percepción de que hay un amplio conjunto de contenido que admite cualquier punto de vista.

La bandera estadounidense vuela a medio personal sobre el Capitolio de los Estados Unidos en memoria de los fallecidos en los recientes tiroteos masivos en El Paso, Texas y Dayton, Ohio, el 5 de agosto de 2019 en Washington, DC. Dos hombres armados mataron a 29 personas e hirieron a docenas más en dos tiroteos separados en un período de 24 horas durante el fin de semana.

Win McNameeimágenes falsas

"Seguí cayendo más y más en esto, y me atrajo porque me hizo sentir un sentido de pertenencia", dijo el ex radical de extrema derecha Caleb Cain en un reciente New York Times artículo sobre consumo de YouTube. "Me lavaron el cerebro".

Las redes sociales son no directamente responsable de incidentes con víctimas en masa. Pero está ampliamente demostrado que refuerza las inclinaciones violentas mediante el uso de contenido filtrado y gamificado. Si bien las redes sociales han demostrado de manera confiable un camino para reforzar el comportamiento extremo, las compañías de redes sociales han mostrado poco esfuerzo en negar ese comportamiento en la plataforma.

"Deberíamos ser extremadamente cautelosos de dejar que las plataformas decidan quién es y quién no es un tirador violento", dice Eva Galperin, Director de Seguridad Cibernética de la Electronic Frontier Foundation. "Esta es una idea potencialmente peligrosa".

Las plataformas tecnológicas tienen un interés singular en crear valor para los accionistas. No son armas del gobierno y, por lo tanto, no se debe suponer que tienen en mente los intereses de los no accionistas. E incluso si quisieran, no cuentan con las herramientas adecuadas para comprender, predecir y actuar sobre esta información.

Deberíamos responsabilizar a los titanes tecnológicos por arreglar sus sistemas dañados, pero no debemos confiar en ellos para que actúen como extensiones de nuestras fuerzas policiales. Esto es especialmente importante dados los hacks recientes y las interferencias electorales a través de Facebook en los últimos años.

Si confiamos en una plataforma no gubernamental para ayudar en la vigilancia policial y la corrompe un actor extranjero, ¿quién tiene la culpa y en quién se puede confiar? Hasta ese punto, ¿cómo revocaríamos ese poder, si se justifica, una vez que se haya entregado?

Francamente, esto no es Informe Minoritario.

"Poner toda la fe en un algoritmo es una muy mala idea, [as] con frecuencia son inexactos ", dice Galperin, quien cita casos recientes de ACLU y otros donde el software de reconocimiento facial basado en IA identificó erróneamente a los miembros del congreso como delincuentes. "La idea de que todo se puede resolver mágicamente con un algoritmo es una de las que soy muy escéptico".

Si suspendemos la creencia por un segundo de que la IA podría predecir actores violentos y que las plataformas de redes sociales podrían detectar esto y alertarlos al gobierno, estamos en peligro real de Informe Minoritario estado. Acusar a alguien de un delito que potencialmente va a cometer es peligroso. Es fácil equivocarse y, a menudo, no se puede probar.

Pero nosotros poder responsabilizar a las plataformas de redes sociales por el desarrollo centrado en el ser humano.

Las plataformas de redes sociales tienen un papel que desempeñar para frenar el comportamiento social, pero requiere primero reconocer el papel que tienen en la sociedad en general. Los fundamentos de nuestra sociedad ahora descansan, en cierto nivel, en nuestro sistema de redes sociales. Sin embargo, este es un sistema que no toma en serio la privacidad del usuario, los datos y las preferencias. Como usuarios, debemos exigir más a las empresas de redes sociales y educar al público sobre cómo ser mejores consumidores.

Un número creciente de expertos en tecnología y expertos en tecnología de Silicon Valley creen que es es necesaria una legislación gubernamental que pueda mejorar las plataformas de redes sociales y proteger a los ciudadanos estadounidenses de cualquier daño. Esta legislación no es la creación de una IA que todo lo ve.

"Deberíamos ser extremadamente cautelosos de dejar que las plataformas decidan quién es y quién no es un tirador violento".

En cambio, son herramientas que educan al consumidor estadounidense sobre noticias falsas. Son herramientas que permiten a los usuarios en las plataformas sociales determinar si desean que su feed se entregue en burbujas de filtro o tal vez de la manera tradicional (es decir, una función cronológica de todas las publicaciones). Es educación y ayuda para quienes sufren de acoso escolar, adicción a las redes sociales y depresión causada por el consumo de las redes sociales.

No existe una solución simple para detener los tiroteos masivos. Confiar en las empresas de redes sociales para desarrollar un algoritmo que pueda predecir la violencia antes de que ocurra es simplemente inviable y potencialmente extremadamente peligroso. A menudo imbuimos de tecnología, y las respectivas compañías asociadas con la tecnología, con demasiado poder. Creemos que pueden salvarnos. En verdad, somos las únicas personas que pueden salvarnos.

Debemos aceptar los límites de la tecnología y trabajar con ella para encontrar soluciones a un número creciente de problemas sociales. Las empresas privadas deben ayudar a abordar nuestros problemas sociales más importantes, pero la sociedad debe ser consciente de cómo las empresas pueden ayudar, qué pueden ofrecer realmente y sus motivaciones. Solo entonces deberían estar dotados de un poder que sería difícil de revocar.


Source link
Salir de la versión móvil