Ícono del sitio La Neta Neta

El informe de la plataforma Gig pide transparencia para corregir el abuso

El informe de la plataforma Gig pide transparencia para corregir el abuso

Una organización sin fines de lucro creada por un ex conductor de Uber que desafió con éxito la clasificación errónea del estado laboral de los conductores en el Reino Unido por parte del gigante de los viajes compartidos ha publicado una oportuna reporte presionando el caso para una supervisión adecuada de los algoritmos y los datos utilizados para vigilar y controlar de forma remota el trabajo de los trabajadores de la plataforma.

Oportuno: dado que la Unión Europea acaba de proponer una legislación para mejorar la transparencia de los algoritmos en las plataformas laborales digitales como una palanca para abordar las condiciones de trabajo problemáticas.

Al mismo tiempo, los legisladores del Reino Unido, que ahora se encuentra fuera del bloque, están consultando sobre la reducción de los estándares nacionales de protección de datos. Incluyendo, potencialmente, la eliminación de los derechos existentes asociados con la toma de decisiones automatizada; y eliminar el requisito de realizar una evaluación de impacto de la protección de datos antes de procesar datos personales confidenciales, lo que, según advierte la organización sin fines de lucro, equivaldría a “un golpe de martillo para los trabajadores precarios a quienes ya se les han negado durante mucho tiempo los derechos laborales básicos que ahora podrían ser despojados de los medios para hacer que los empleadores deshonestos rindan cuentas adecuadamente”, como dice el informe.

los reporteen coautoría con el investigador Cansu Safak y el exconductor de Uber James Farrer, quien fundó el Intercambio de información para trabajadores (WIF), se titula “Administrado por Bots: Explotación impulsada por datos en la Gig Economy”.

Contiene una serie de estudios de casos que ilustran los obstáculos y la ofuscación a los que se enfrentan los trabajadores temporales regionales que buscan obtener derechos de acceso a datos para tratar de evaluar la imparcialidad de las decisiones basadas en datos de las plataformas sobre ellos y su trabajo (hasta e incluyendo la terminación de su contrato). capacidad para trabajar en la plataforma).

Los ejemplos discutidos incluyen controles de reconocimiento facial “antifraude” que parecen tener prejuicios raciales; conductores notificados de ataques de fraude en sus cuentas sin recibir información clara e inmediata sobre lo que está desencadenando advertencias que también pueden conducir a la cancelación de la cuenta; y numerosos casos de conductores que no reciben todos los datos solicitados mientras las plataformas trabajan duro para frustrar sus solicitudes.

El informe de WIF continúa argumentando que “los niveles lamentablemente inadecuados de transparencia sobre el alcance de la gestión algorítmica y la toma de decisiones automatizada” están permitiendo la explotación de los trabajadores en la economía de los conciertos.

El litigio es una ruta (existente) para que los trabajadores de conciertos regionales intenten obtener sus derechos, incluidas las protecciones laborales y los derechos de datos, y ya hemos visto muchos de ambos en Europa.

En particular, el propio litigio de clasificación de empleo de Farrer contra Uber que obligó a la plataforma a reconocer finalmente a los conductores del Reino Unido como trabajadores a principios de este año.

Sin embargo, la interpretación egoísta de Uber aún evita pagar a los conductores por el tiempo que pasan esperando el próximo viaje. (Aka: “La falta de pago por el tiempo de espera como tiempo de trabajo permite que las plataformas aprovechen la inmediatez de la disponibilidad para aumentar el tiempo de respuesta del cliente y reducir las ganancias de los trabajadores”, como lo resume claramente el informe).

Si bien, incluso en el Reino Unido, estos trabajadores no están protegidos contra el despido instantáneo mediante un algoritmo (injusto).

Por lo tanto, el informe señala que la condición de trabajador no es en sí misma una panacea contra la gestión algorítmica opaca, y los coautores advierten que “los avances recientes en los tribunales no protegen completamente a los trabajadores contra sus daños”.

WIF también respalda una serie de desafíos para el control algorítmico de los trabajadores de las plataformas de conciertos, como informamos anteriormente, pero ese también es un proceso costoso y lento para los trabajadores precarios que generalmente carecen de recursos para luchar contra los gigantes de la plataforma a través de los tribunales.

Entonces, su punto general es que las protecciones actuales para las personas sujetas a la toma de decisiones algorítmicas, como las contenidas en el Reglamento General de Protección de Datos de Europa, no van lo suficientemente lejos, lo que permite que las plataformas inventen justificaciones complicadas para retener el funcionamiento de los algoritmos de aquellos sujetos a gestión opaca y control por IA.

Aquí, el informe destaca la fusión de las plataformas de gestión del fraude con la gestión del rendimiento, como un ejemplo.

“El hecho de que tales indicadores de ‘fraude’ se utilicen como variables para la asignación de trabajo y que se permita que los comportamientos que los generan continúen en la plataforma demuestra que no se trata de instancias de fraude criminal, sino de mecanismos de control, que evalúan qué tan bien están los trabajadores. desempeñándose frente a las métricas opacas establecidas por las empresas”, señala el informe en una sección subtitulada “Carrera armamentista de vigilancia”, que analiza una variedad de sistemas utilizados por las plataformas de transporte compartido Uber, Bolt y Free Now.

“Sugerimos que cualquier terminología de ‘fraude’ utilizada en estos contextos también funcione como parte del juego de clasificación errónea, diseñado para ocultar la relación laboral”, agrega, argumentando además que ha habido “una proliferación generalizada y un uso desproporcionado de la vigilancia de los trabajadores en el nombre de la prevención del fraude”.

El informe aboga por una mayor protección de los derechos digitales para dirigir la industria en una mejor dirección, lo que permite a los trabajadores temporales obtener “igualdad en el trabajo digital” frente al actual desequilibrio de poder que permite el abuso, donde las plataformas manejan todos los hilos y despliegan la negación y/o o patrones oscuros para frustrar los intentos de los trabajadores de aprovechar las (débiles) protecciones legales existentes.

Categorías de datos que las plataformas procesan sobre los trabajadores, que las notas del informe de WIF generalmente se hacen explícitas en la plataforma documentos de orientación y políticas de privacidad — a menudo no se comparten con los conductores cuando descargan sus datos o realizan solicitudes de acceso de sujetos en virtud del RGPD, lo que subraya la discrepancia entre los niveles existentes de procesamiento de datos por parte de las plataformas y la transparencia.

“Según nuestra experiencia, cuando los trabajadores buscan esta información, las plataformas de conciertos tienen como objetivo hacer que el proceso sea difícil y engorroso al participar en una variedad de comportamientos de incumplimiento”, escribe. “Los trabajadores que buscan datos completos tienen que navegar por arquitecturas de sitios web extremadamente complejas y obstruccionistas y deben eludir esfuerzos adicionales de frustración por parte de los agentes de soporte, que prolongan innecesariamente los procesos administrativos simples o brindan respuestas automáticas que no responden adecuadamente a las consultas.

“Estos procedimientos pueden describirse como ‘patrones oscuros’ diseñados para alejar a los trabajadores del ejercicio de sus derechos como interesados. En las ocasiones en que los trabajadores pueden obtener sus datos, a menudo faltan segmentos considerables o se presentan en formatos inconsistentes y no legibles por máquina, lo que hace que el análisis sea efectivamente imposible. Estos actos de obstrucción obligan a los trabajadores a realizar solicitudes reiteradas que las empresas finalmente utilizan como motivo para desacreditarlos”.

“En todos los DSAR [data subject access request] devoluciones que hemos visto, ningún empleador ha dado una cuenta completa y adecuada del procesamiento automatizado de datos personales”, agrega el informe. “Esto es particularmente importante en áreas que pueden determinar la seguridad del empleo, como la asignación de trabajo, la gestión del desempeño, la seguridad y la protección, como se analiza en este informe”.

Una vez más, las plataformas han tratado de proteger sus algoritmos de los litigios en busca de datos sobre la lógica, las entradas y las salidas de las IA al afirmar que la “seguridad y protección” de sus servicios podría verse comprometida si dicha información se revelara a los trabajadores.

(Y, al menos en Londres, las plataformas como Uber parecen haber sido impulsadas hacia una vigilancia algorítmica aún más estricta de los conductores (y el uso de tecnología de reconocimiento facial defectuosa) como resultado de una intervención centrada en la seguridad por parte del regulador de transporte, TfL, que ha, desde 2017, negado a Uber una licencia completa para operar, citando preocupaciones de seguridad…).

Pero el informe argumenta que es todo lo contrario y escribe: “Desde nuestro punto de vista, la seguridad y la protección solo se pueden mejorar cuando las plataformas establecen reglas y estándares de desempeño de manera transparente en lugar de depender de la vigilancia encubierta y los despidos sumarios, que son algunos de los motivadores clave de DSAR”.

Comentando en una declaración, el autor principal del informe, Safak, agregó: “Los muchos casos de trabajadores que documentamos en este informe dejan innegablemente claro que los daños de la gestión algorítmica son reales y afectan a los más vulnerables. Las plataformas Gig están recopilando una cantidad sin precedentes de datos de los trabajadores a través de tecnologías de vigilancia invasivas. Todos los días, las empresas hacen acusaciones de ‘irregularidades algorítmicas’ de las que no ofrecen ninguna prueba. Bloquean y frustran los esfuerzos de los trabajadores por obtener sus datos personales cuando intentan defenderse. Así es como las plataformas de conciertos mantienen el poder de explotación”.

En otra declaración de apoyo, Farrer dijo: “A medida que las plataformas de la economía colaborativa maduran y aumenta la presión regulatoria, vemos que los empleadores implementan una vigilancia intensiva y sistemas de toma de decisiones de gestión automatizados y opacos para ejercer formas de control cada vez más ocultas sobre los trabajadores. Este informe muestra cómo la última ola de tácticas de clasificación errónea de empleo involucra a los empleadores que les dicen a los trabajadores que son verdaderamente independientes en sus trabajos, mientras que al mismo tiempo el control de gestión se ejerce con tanta fuerza como siempre, pero desde detrás de la cortina digital”.

WIF, junto con el grupo de campaña de derechos digitales Privacy International y App Drivers & Couriers Union, busca aumentar la conciencia pública sobre el tema mientras los legisladores regionales consideran sus próximos pasos: lanzar un campaña pública y petición eso exige una mayor transparencia algorítmica y responsabilidad por parte de los empleadores de plataformas.

Como parte de la petición, los grupos dicen que escribirán a varias plataformas de conciertos, incluidas Uber, Just Eat, Amazon Flex, Free Now, Bolt, Ola y Deliveroo, para “exigir respuestas” y “garantizar que la vigilancia sin precedentes que los trabajadores de la gig-economía a los que se enfrentan los fines de sus empleadores”.


Source link
Salir de la versión móvil