Los algoritmos que rigen las relaciones laborales: así son y así se regulan


Una conocida empresa de ascensores trabaja en España con una app que distribuye las tareas diarias de sus empleados en función de las incidencias que dejan los usuarios y de la cantidad de aparatos que hay que arreglar, así como de sus ubicaciones y el orden a seguir. Hasta aquí todo normal. El problema llega, explica el secretario de Juventud y Nuevas Realidades del Trabajo de CC OO, Carlos Gutiérrez, “cuando el algoritmo que esconde esa app se utiliza para medir la supuesta eficiencia o productividad de los trabajadores sin que ellos lo sepan”. Es algo, añade, que puede repercutir en las evaluaciones internas, en la clasificación por perfiles en base a sesgos, en la salud laboral o en la promoción.

El objetivo del Real Decreto-Ley aprobado esta semana por el Gobierno, además de la regularización de los riders, persigue precisamente acabar con la opacidad de los algoritmos obligando a todas las empresas que hacen uso de esta tecnología a informar a los empleados sobre los sistemas de inteligencia artificial que incidan en las condiciones de laborales. “Multitud de cuestiones que se deciden en los centros de trabajo están mediadas por estos algoritmos, que pueden tener sesgos raciales, de clase y de género, y tenemos que proteger a los empleados”, añade Gutiérrez, presente en las negociaciones de la ley rider consensuada por el Ministerio de Trabajo, las patronales CEOE y Cepyme, y los sindicatos CC OO y UGT.

Jorge Monclús y José María Martínez, consejero y asociado de Cuatrecasas, respectivamente, señalan que hoy en día son ya numerosas las empresas que se apoyan en sistemas de inteligencia artificial y programas algorítmicos para decidir cuestiones tan comunes como la contratación de personal, la asignación de tareas, la distribución de tiempos y lugares de trabajo, la evaluación y promoción profesional o la verificación de la consecuención de objetivos para, por ejemplo, el devengo de un bonus. Y todas esas compañías, no solo las empresas tecnológicas o de la gig economy, se van a ver afectadas por esta nueva ley, que entrará en vigor el próximo 12 de agosto.

Hay casos de compañías de reparto, ajenas al mundo del delivery, que penalizan al empleado si no sigue la ruta que tiene marcada, “obviando que un desvío puede estar justificado por una obra o un accidente”. También otros que se utilizan por la empresa para crear clasificaciones por perfiles en base a los niveles de disponibilidad del trabajador, por ejemplo en auditoras o consultoras, “o que no distinguen entre ausencias injustificadas o bajas por enfermedad”, continúa Gutiérrez. Según un estudio de EY para Microsoft en 2019, el 15% de las empresas españolas consultadas estarían utilizando inteligencia artificial en recursos humanos, el doble de la media europea.

El Real Decreto-Ley reconoce por primera vez en el ordenamiento jurídico-laboral español la figura de los algoritmos como gestores de la prestación laboral. “Pero mas trascendente aún”, como explican los abogados de Cuatrecasas, confiere a la representación legal de los trabajadores el derecho a ser informada por la empresa “de los parámetros, reglas e instrucciones en los que se basan los algoritmos o sistemas de inteligencia artificial que afectan a la toma de decisiones que pueden incidir en las condiciones de trabajo, el acceso y mantenimiento del empleo, incluida la elaboración de perfiles”.

Las empresas pueden considerar los algoritmos como secreto empresarial y podrían resistirse a destripar sus sistemas

Una información que puede ser considerada por las compañías como secreto empresarial y podría dar lugar a una “lógica resistencia de las empresas a destripar sus sistemas”, según advierten Monclús y Martínez. Aunque como apunta Jesús Lahera, catedrático de Derecho del Trabajo en la Universidad Complutense, este derecho se debe ajustar a la normativa vigente de secreto profesional así como de propiedad intelectual e industrial, que no ha sido modificada. Y por esa vía pueden aparecer límites significativos.

“Va a ser esencial el respeto del deber de sigilo y conficencialidad de los representantes de los trabajadores, tanto general del artículo 65 del Estatuto de los Trabajadores como específico en secretos profesionales”, resalta Lahera, que advierte que los conflictos en la aplicación de esta nueva ley pueden venir de la posición de la empresa en hacer valer esta confidencialidad y secreto profesional, así como en la delimitación del alcance de la información. “Serán los jueces los que tendrán que ir elaborando criterios y límites en el contexto de toda la normativa aplicable”.

Para Stella Solernou, profesora de Derecho Mercantil de la Facultad de Derecho de la Universidad de Deusto, esta nueva norma viene a concretar la ley de secretos empresariales de 2019, la cual ya tiene un precepto que habla de la posibilidad de obtener de manera lícita secretos empresariales cuando sean cuestiones relacionadas con el ejercicio de los derechos de los trabajadores y los representantes de estos.

“El tema está en que una cosa es poder acceder a esa información y, otra, la utilización que se haga de la misma. Y ahí es donde tiene que venir el límite para el comité de empresa, pero la ley no dice nada al respeto, lo cual puede generar conflicto, pues si se va más allá de utilizar la información para defender los derechos de los trabajadores y hay una revelación de cómo funcionan esos algoritmos supondría una violación de los derechos de las empresas”, señala.

Ante este escenario, Solernou da por hecho que lo primero que van a hacer las empresas es obligar a firmar acuerdos de confidencialidad a los comités de empresa y a los propios trabajadores. “Es lo que presumo que va a ocurrir, porque así las compañías se cubren las espaldas y los representantes de los trabajadores se cuidarán mucho de utilizar la información de una manera torticera y dañina para las empresas”.

Va a ser esencial el respeto del deber de sigilo y confidencialidad de los trabajadores

La profesora de la Universidad de Deusto resalta el papel cada vez más importante de los algoritmos en las empresas, donde se están utilizando para múltiples fines. “Se están convirtiendo en el secreto empresarial por antonomasia, y regularlos demasiado cuando aún no sabemos cuáles pueden ser los escenarios puede ser hasta contraproducente”, continúa Solernou, que entiende que se quiera exigir más transparencia sobre estos sistemas, pero advierte de la necesidad de hacer mucho más trabajo de campo: auditorias, informes y estudios de mercado para conocer más sobre cómo funcionan estos algoritmos, hasta dónde pueden ser dañinos y hasta qué punto podemos controlarlos técnicamente “porque los algoritmos de autoaprendizaje pueden tener vida propia”.

Fuentes patronales explican a este respecto que las empresas no tendrán ningún problema en revelar la información relativa a la toma de decisiones que afecta a los empleados, pero que el acuerdo alcanzado deja claro que hay ciertos datos, “relacionados con la propiedad intelectual”, que no tienen que ser hechos públicos. “Se deja en manos de las empresas la decisión de qué información proporcionar para no poner en riesgo el negocio ni los secretos empresariales”, explican.

Sergio de Juan-Creix, profesor colaborador de la UOC y experto en derecho digital, cree que hay una vía para defender que con esta nueva ley no hay que revelar propiedad intelectual. Según explica, los algoritmos sí están protegidos por unos derechos de propiedad intelectual, “pero la ley no dice que se revele todo el algoritmo sino las bases del funcionamiento del mismo, porque la finalidad es que los comités de empresa conozcan qué impacto tienen esos sistemas en las condiciones laborales de los empleados y para eso no necesita conocer con exactitud el algoritmo, pero sí cuál es la lógica de ese algoritmo, saber cómo funciona”.

Lo que parece claro es que el uso de los algoritmos ya se ha colado en la negociación colectiva y ha llevado a la representación de los trabajadores de ciertos sectores a tomar medidas. Uno de los ejemplos más recientes, del pasado marzo, se encuentra en el convenio colectivo de la banca, que señala que “el desarrollo creciente de la aportación de la tecnología requiere de una implantación cuidadosa cuando se aplica en el ámbito de las personas”. El texto añade que los empleados “tienen derecho a no ser objeto de decisiones basadas única y exclusivamente en variables automatizadas”, así como “derecho a la no discriminación en relación con las decisiones y procesos, cuando estén basados únicamente en algoritmos”.

Saber si esta ley provocará conflictividad laboral no es fácil. “Mi opinión es que no. Otras obligaciones informativas empresariales en el pasado han generado mucho ruido, pero a la hora de la verdad, no han dado lugar a mucha conflictividad. Además, no hay que olvidar que es fruto de un pacto social. Y, además, la necesidad de establecer mecanismos de transparencia en este terreno ha sido objeto de acuerdo a nivel europeo”, indica José María Goerlich, Of Counsel de EY Abogados y catedrático de Derecho del Trabajo, que remarca que el nuevo derecho que incluye la nueva ley es un derecho limitado a los sistemas que impactan en las condiciones de trabajo.

Algunos expertos no prevén conflictividad laboral porque aseguran que se trata de un mecanismo de transparencia pactado

“Es verdad que, en algunos sectores, los algoritmos de gestión de personal tienen una importancia esencial y pueden ser claves en la competencia interempresarial (el caso de las plataformas digitales es el más claro. Pero, incluso así, hay que pensar que la normativa sobre sigilo de los representantes legales es suficiente para garantizar la confidencialidad de las informaciones sensibles”, añade Goerlich.

Vicente Castelló, profesor de la Universidad Jaime I y miembro del instituto Interuniversitario de Desarrollo Local, destaca que una de las cuestiones más importantes que aporta esta ley es la transparencia. “No se trata de que las empresas informen solo de los algoritmos sino también el funcionamiento de los parámetros que inciden en la toma de decisiones a adoptar”. En su opìnión, conocer las cargas de trabajo a nivel de empresa es importante, pero defiende que la representación sindical debe conocer cómo se elaboran y se controlan esos algoritmos, sobre todo, si sirve para la composición del salario.

Castelló coincide con Goerlich en que no es de esperar una gran resistencia por parte de las empresas, teniendo en cuenta que la ley ha sido pactada con los agentes socioeconómicos, aunque admite que, como todo nuevo sistema, puede provocar cierta oposición inicial. “En cualquier caso, su buen uso debe garantizar el derecho de los trabajadores y el de las empresas. Además, si las nuevas tecnologías están bien dirigidas y diseñadas son muy positivas para ambas partes pudiendo ayudar a las relaciones laborales”, concluye.

Dudas interpretativas y de aplicación

Aunque para algunos expertos el texto aprobado es claro, desde Cuatrecasas advierten que ya antes de que se publicara en el BOE empezaron a aflorar importantes duddas interpretativas de este nuevo deber de información empresarial a la representación legal de la plantilla. Y lanzan algunas a modo de ejemplo: “A qué tipo de algoritmos o sistemas de inteligencia artificial se refiere la norma? ¿cómo, cuándo y a quién hay que informar? ¿Qué ocurre si la plantilla no tiene representación unitaria? ¿cuándo la norma se refiere a informar de los parámetros, reglas e instrucciones de los algoritmos, qué grado de detalle ha de tener esa información? ¿Y si el sistema de inteligencia artificial no ha sido desarrollado por la empresa sino por un proveedor tecnológico?

Jorge Monclús y José María Martínez, socios del bufete, apuntan que será interesante ver a qué responsabilidades contractuales puede enfrentarse la empresa frente a su proveedor de servicios de inteligencia artificial a resueltas de la divulgación de datos esenciales de ese algoritmo.

También Josep Curto, profesor de la UOC y experto en big data, siembra otra duda: las competencias que puedan tener los representantes de los trabajadores para valorar los algoritmos. “Deberán tener conocimientos sobre interpretabilidad del machine learning, y dudo que estén preparados para esa tarea. Al igual que muchas empresas que utilizan estos sistemas, pero que si les obligáramos a ofrecer información sobre si sus algoritmos son justos, si son interpretables y nos dan trazabilidad no podrían porque tampoco están preparadas”.

Para Curto, el Gobierno español está queriendo preparar a las empresas para la regulación que habrá en Europa, donde hay una tendencia legislativa hacia la regulación de los sistemas de inteligencia artificial, como muestra el reglamento anunciado por la Comisión Europea a finales de abril que marca las líneas rojas que no quieren que se traspasen a la hora de utilizar esta tecnología.

Precisamente, este reglamento, que aún debe debatirse y aprobarse, cualifica el uso de sistemas de inteligencia artificial en el ámbito laboral como una “situación de alto riesgo por el impacto que estos sistemas causan en las perspectivas de carrera y en los recursos de las personas trabajadoras”.


Source link