Ícono del sitio La Neta Neta

El reconocimiento facial revela al partido político en una nueva investigación preocupante

El reconocimiento facial revela al partido político en una nueva investigación preocupante

Los investigadores han creado un sistema de aprendizaje automático que, según afirman, puede determinar el partido político de una persona, con una precisión razonable, basándose solo en su rostro. El estudio, de un grupo que también mostró que la preferencia sexual aparentemente se puede inferir de esta manera, aborda con franqueza y evita con cuidado los escollos de la “frenología moderna”, lo que lleva a la incómoda conclusión de que nuestra apariencia puede expresar más información personal de la que pensamos.

El estudio, que apareció esta semana en la revista Nature Scientific Reports, fue dirigido por Michal Kosinski de la Universidad de Stanford. Kosinski fue noticia en 2017 con un trabajo que descubrió que la preferencia sexual de una persona se podía predecir a partir de los datos faciales.

El estudio generó críticas no tanto por sus métodos sino por la idea misma de que algo que teóricamente no es físico podría detectarse de esta manera. Pero el trabajo de Kosinski, como explicó entonces y después, se hizo específicamente para desafiar esas suposiciones y fue tan sorprendente y perturbador para él como para los demás. La idea no era construir una especie de radar gay de IA, de hecho, todo lo contrario. Como escribió el equipo en ese momento, era necesario publicar para advertir a otros que tal cosa puede ser construida por personas cuyos intereses van más allá de lo académico:

Estamos realmente preocupados por estos resultados y pasamos mucho tiempo considerando si deberían hacerse públicos. No queríamos permitir los mismos riesgos contra los que advertimos. La capacidad de controlar cuándo y a quién revelar la propia orientación sexual es crucial no solo para el bienestar, sino también para la seguridad.

Sentimos que existe una necesidad urgente de concienciar a los legisladores y a las comunidades LGBTQ de los riesgos a los que se enfrentan. No creamos una herramienta para invadir la privacidad, sino que demostramos que los métodos básicos y ampliamente utilizados plantean serias amenazas a la privacidad.

Pueden sonar advertencias similares aquí, ya que si bien la afiliación política al menos en los EE. UU. (Y al menos en la actualidad) no es un elemento tan sensible o personal como la preferencia sexual, sigue siendo sensible y personal. Apenas pasa una semana sin leer sobre algún “disidente” político o religioso u otro arrestado o asesinado. Si los regímenes opresivos pudieran obtener lo que pasa por causa probable diciendo “el algoritmo lo marcó como un posible extremista”, en lugar de, por ejemplo, interceptar mensajes, hace que este tipo de práctica sea mucho más fácil y escalable.

El algoritmo en sí no es una tecnología muy avanzada. El artículo de Kosinski describe un proceso bastante común de alimentar un sistema de aprendizaje automático con imágenes de más de un millón de caras, recopiladas de sitios de citas en los EE. UU., Canadá y el Reino Unido, así como de usuarios estadounidenses de Facebook. Las personas cuyos rostros se utilizaron se identificaron como políticamente conservadores o liberales como parte del cuestionario del sitio.

El algoritmo se basó en un software de reconocimiento facial de código abierto, y después del procesamiento básico para recortar solo la cara (de esa manera no se introducen elementos de fondo como factores), las caras se reducen a 2,048 puntajes que representan varias características, al igual que con otros reconocimientos faciales algoritmos, estos no son cosas intuitivas necesarias como “color de cejas” y “tipo de nariz”, sino más conceptos nativos de la computadora.

Créditos de imagen: Michal Kosinski / Nature Scientific Reports

El sistema recibió datos de afiliación política provenientes de las personas mismas, y con esto comenzó a estudiar diligentemente las diferencias entre las estadísticas faciales de las personas que se identifican como conservadoras y las que se identifican como liberales. Porque resulta que hay diferencias.

Por supuesto, no es tan simple como “los conservadores tienen las cejas más pobladas” o “los liberales fruncen más el ceño”. Tampoco se reduce a la demografía, lo que haría las cosas demasiado fáciles y sencillas. Después de todo, si la identificación del partido político se correlaciona tanto con la edad como con el color de la piel, eso lo convierte en un algoritmo de predicción simple allí mismo. Pero aunque los mecanismos de software utilizados por Kosinski son bastante estándar, tuvo cuidado de cubrir sus bases para que este estudio, como el último, no pueda ser descartado como pseudociencia.

La forma más obvia de abordar esto es hacer que el sistema adivine el partido político de personas de la misma edad, género y etnia. La prueba implicó que se le presentaran dos caras, una de cada parte, y adivinar cuál era cuál. Obviamente, la precisión de la probabilidad es del 50%. Los humanos no son muy buenos en esta tarea, actuando solo un poco por encima de la probabilidad, con una precisión del 55%.

El algoritmo logró alcanzar una precisión del 71% al predecir el partido político entre dos individuos similares, y el 73% se presentó con dos individuos de cualquier edad, etnia o género (pero aún garantizado que será uno conservador y uno liberal).

Créditos de imagen: Michal Kosinski / Nature Scientific Reports

Obtener tres de cuatro puede no parecer un triunfo para la IA moderna, pero considerando que las personas apenas pueden hacerlo mejor que lanzar una moneda, parece haber algo que vale la pena considerar aquí. Kosinski también ha tenido cuidado de cubrir otras bases; esto no parece ser una anomalía estadística o una exageración de un resultado aislado.

La idea de que su partido político pueda estar escrito en su cara es desconcertante, ya que si bien las inclinaciones políticas de uno están lejos de ser la información más privada, también es algo que se considera muy razonablemente intangible. Las personas pueden optar por expresar sus creencias políticas con un sombrero, un broche o una camiseta, pero generalmente se considera que la cara no es partidista.

Si se pregunta qué rasgos faciales en particular son reveladores, desafortunadamente el sistema no puede informar eso. En una especie de paraestudio, Kosinski aisló un par de docenas de rasgos faciales (vello facial, franqueza en la mirada, diversas emociones) y probó si esos eran buenos predictores de la política, pero ninguno condujo a más que un pequeño aumento en la precisión sobre el azar o el azar. experiencia humana.

“La orientación de la cabeza y la expresión emocional se destacaron: los liberales tendían a mirar a la cámara más directamente, eran más propensos a expresar sorpresa y menos propensos a expresar disgusto”, escribió Kosinski en las notas del autor para el artículo. Pero lo que agregaron dejó más de 10 puntos porcentuales de precisión sin tener en cuenta: “Eso indica que el algoritmo de reconocimiento facial encontró muchas otras características que revelan la orientación política”.

La defensa instintiva de “esto no puede ser verdad – la frenología era aceite de serpiente” no tiene mucha agua aquí. Da miedo pensar que es verdad, pero no nos ayuda a negar lo que podría ser una verdad muy importante, ya que podría usarse contra las personas con mucha facilidad.

Al igual que con la investigación de la orientación sexual, el punto aquí no es crear un detector perfecto para esta información, sino mostrar que se puede hacer para que la gente comience a considerar los peligros que crea. Si, por ejemplo, un régimen teocrático opresivo quisiera tomar medidas enérgicas contra las personas no heterosexuales o contra las personas con cierta inclinación política, este tipo de tecnología les da un método tecnológico plausible para hacerlo “objetivamente”. Y lo que es más, se puede hacer con muy poco trabajo o contacto con el objetivo, a diferencia de hurgar en su historial de redes sociales o analizar sus compras (también muy revelador).

Ya hemos escuchado que China ha implementado software de reconocimiento facial para encontrar miembros de la minoría religiosa uigur en conflicto. Y en nuestro propio país, las autoridades también confían en este tipo de inteligencia artificial; no es difícil imaginar a la policía usando la “última tecnología” para, por ejemplo, clasificar rostros en una protesta, diciendo “estos 10 fueron determinados por el sistema como siendo el más liberal ”, o lo que sea.

La idea de que un par de investigadores que usan software de código abierto y una base de datos de rostros de tamaño mediano (para un gobierno, esto es trivial de ensamblar en la improbable posibilidad de que aún no tengan uno) podrían hacerlo en cualquier parte del mundo, por cualquier propósito, es escalofriante.

“No dispares al mensajero”, dijo Kosinski. “En mi trabajo, advierto contra los algoritmos de reconocimiento facial ampliamente utilizados. Es preocupante que esos fisonomistas de la inteligencia artificial se estén utilizando ahora para juzgar los rasgos íntimos de las personas: los académicos, los legisladores y los ciudadanos deberían prestar atención “.


Source link
Salir de la versión móvil