En la mitología griega existían los Argos Panoptes, gigantes de cien ojos que todo lo veían. Esa mirada de cien vistas sería comparable hoy al empleo de la inteligencia artificial, el machine learning, los algoritmos, redes neuronales o la automatización en la gestión de las empresas. Es lo más cercano a un jefe robot. Pero lo paradójico, o no, es que el uso de estas herramientas no garantiza un mejor líder. Hay miles de formas en las que, por ejemplo, los algoritmos en manos de malos gestores pueden provocar más daño que beneficios. Solo hay que recordar el mito de Argos. Se pueden utilizar sensores en almacenes para controlar el ritmo de trabajo y advertir a un trabajador que tarda “mucho” en apilar un estante. Imaginemos, también, un algoritmo que envía un mensaje a los compañeros cuando alguien llega cinco minutos tarde. O, por ejemplo, alerta el futurólogo Mike Walsh, un mecanismo que ajusta constantemente la temperatura de color de la luz de la oficina para que los ritmos circadianos de los trabajadores piensen que es el final de la tarde en vez de la mañana. ¿Exagerado?
IBM recibe al día más de 8.000 currículos. Ha desarrollado un sistema de inteligencia artificial que predice con un 95% de precisión los empleados que abandonarán la empresa. La exconsejera delegada de la compañía, Ginni Rometty, aseguró que suponía un ahorro de 300 millones de dólares. Esa sucesión de números controla la remuneración, la asignación de tareas, el ritmo de trabajo, los resultados. Sobre todo, domina el tiempo.
“No hay pausa: todo es velocidad. La gestión está basada en la rapidez, la inmediatez, la ausencia de reflexión. Esto se tiene que acabar”, apunta la filósofa María Ángeles Quesada, quien trabaja con ING, Enagás y Solán de Cabras. “Son empresas que están buscando la vía para parar y reflexionar sobre las implicaciones éticas de todo este cambio. Están comprometidas con la transformación digital. Pero también con el pensamiento crítico y con un modelo híbrido, que lleva al trabajador a no estar siempre ni en casa ni en la oficina”.
“ Los trabajadores de Amazon saben lo imposible que resulta seguir el ritmo de la inteligencia artificial. Un informe reveló que la mayoría tenía lesiones debido a la velocidad del trabajo. Los jefes digitales están haciendo que el empleo resulte miserable”.
La rapidez del cambio está provocando que los gestores no sean capaces de entender las nuevas herramientas ni su alcance. La doctora en Matemáticas por la Universidad de Havard Cathy O’Neil (Cambridge, 1972) escribió en su libro Weapons of Math Destruction (Armas de destrucción matemática) cómo un algoritmo de control usado por el departamento de Educación de Nueva York un año le dio al mismo profesor una calificación de 6/100 y al siguiente, de 96/100, sin que nada justificara el cambio.
La preocupación es profunda. El trabajador siente en su piel la fragilidad del cristal de Murano y se ha vuelto transparente frente a los responsables de la empresa. “Con un jefe digital que te controla cada pocos segundos, no hay lugar para el ser humano”, advierte Gabrielle Rejouis, experta del Centro de Tecnología y Privacidad de la Universidad de Derecho de Georgetown. Y precisa: “En el momento en que has completado una tarea ya estás esperando la próxima. Los trabajadores de Amazon saben perfectamente lo imposible que resulta seguir el ritmo de la inteligencia artificial. Un informe de la organización National Employment Law Project reveló que la mayoría de sus empleados tenían lesiones similares debido a la velocidad del trabajo. Los jefes digitales están haciendo que el empleo resulte miserable”.
Pocas empresas como la fundada por Jeff Bezos llevan al límite esta tendencia. Amazon usa complejos algoritmos para conocer la productividad de sus centros de procesado y puede generar automáticamente el papeleo necesario —como descubrió The Verge y recogió The New York Times— para despedir a trabajadores que no cumplen sus objetivos, sin la intervención de ningún ser humano. La compañía replicó que había una persona al final del proceso. Pero lo cierto es que la pistola con la que los operarios leen los códigos le sirve a Bezos para controlar la productividad.
Esa es la certeza de un algoritmo que empuja al ser humano hacia el acantilado. “La gestión algorítmica, el jefe robot, tiene muy pocos beneficios para los trabajadores. Puede convertir el horario de trabajo en algo más flexible, pero permite a los gestores y a los directivos esconderse detrás de la tecnología y no asumir ninguna responsabilidad por sus acciones”, analiza Charles Luke, profesor asistente de la Universidad de Western Ontario (Canadá).
“Lo más preocupante de la gestión robótica es que no existe forma de discutir con un jefe robot, incluso cuando está equivocado”.
Supervisión digital
Los cien ojos de Argos no descansan. Llevan su mirada hacia todas partes. Cogito (una startup bostoniana centrada en IA, que ha declinado hablar para este reportaje) tiene un sistema instalado en 200.000 clientes, entre ellos la aseguradora MetLife. Con él advierte al trabajador, a través de una pequeña caja azul, en la esquina inferior derecha de la pantalla del ordenador, sobre si, por ejemplo, está contestando muy deprisa o demasiado despacio al cliente.
— ¿Suenas dormido?— lanza la caja.
El software envía la imagen de una taza de café.
El objetivo, según explica en The New York Times Joshua Feast, director general de Cogito, es hacer más eficaces a los trabajadores y darles información en tiempo real. Los ejecutivos piensan (“pienso” es, por cierto, el significado del término cogito en latín) en los errores del trabajador. Pero, ¿y los fallos de la máquina? “Lo más preocupante de la gestión robótica es que no existe forma de discutir con un jefe robot, incluso cuando está equivocado”, avisa Jules Kingaby, experto de la consultora Flux Trends Analysis.
El problema es que todo resulta tan nuevo que muchas cosas no tienen nombre y hay que señalarlas con el dedo. Y los resultados son, a veces, una injusticia. La firma tecnológica HireVue ha diseñado un sistema de contratación de personal a través de la cámara del móvil o del ordenador que analiza los movimientos faciales y el lenguaje corporal para aceptar o rechazar al candidato. “Es profundamente preocupante desarrollar una tecnología que diferencia entre un trabajador productivo y otro que no lo es en función de las expresiones de su rostro”, critica Meredith Whittaker, cofundadora del centro neoyorkino AI Now Institute. “Es pseudociencia. Es licencia para discriminar”.
Uber: Un primer aviso
La etnógrafa Alex Rosenblat (autora de Uberland: How Algorithms Are Rewriting the Rules of Work) y Charles Luke fueron los primeros en demostrar en 2016 hasta qué punto un algoritmo es un jefe que corta la respiración. Evidenciaron cómo las aplicaciones de Uber lanzaban un atractivo mensaje acompañado por un icono de aumento de precio: “Are you sure you want to go offl ine? Demand is very high in your area. Make more money, don’t stop now!”. Algo así como… “¿Estás seguro de que quieres desconectarte? La demanda es muy alta en tu zona. ¡Haz más dinero, no pares ahora!”.
Es un juego, pero con seres humanos. “Los expertos lo llaman gamificación y es la técnica de premio-recompensa que hace ya una década usaban los videojuegos. Una forma de controlar grandes grupos de trabajadores sin que lo parezca”, apunta el director de una tecnológica española que pide el anonimato. Un algoritmo de Uber puede distinguir si el conductor acelera mucho o poco, analizar la satisfacción del cliente o si el profesional conduce con mayor o menor destreza a través de ciertas calles. Esta información bateada una y otra vez es oro para la compañía. “Los empleadores tienen un apetito insaciable por la información de sus trabajadores, ya sea relevante o no”, alerta Lewis Maltby, responsable de la organización The National Workrights Institute, una organización estadounidense dedicada a mejorar la protección legal de los trabajadores.
Esta gestión basada en los algoritmos no es un concepto nuevo. A comienzos del siglo XX, Frederick Winslow Taylor revolucionó el mundo de la producción (The Principles of Scientific Management, de 1911) con su teoría de la gestión científica. El principio era exprimir las ineficiencias de las fábricas cronometrando y midiendo cada aspecto del trabajo. Estos días, Uber, Lyft y otras plataformas bajo demanda han hecho miles de millones subcontratando a los ordenadores tareas básicas de recursos humanos: nóminas, programación del trabajo, evaluación del rendimiento, etcétera.
Tiempos modernos
Quizá no vivimos en un neotaylorismo (o sí), pero lo que resulta indudable es que son días dickensianos. “Era el mejor de los tiempos, era el peor de los tiempos, la edad de la sabiduría y también de la locura”. Erik Brynjolfsson y Andrew McAfee, del MIT, han evidenciado cómo el progreso tecnológico fractura la sociedad. “Nunca ha habido una época mejor para ser un trabajador con conocimientos avanzados. Por el contrario, nunca ha habido un tiempo peor para los empleados que solo tienen habilidades normales. Porque los robots y las computadoras adquirirán esas destrezas a ritmos extraordinarios”, narran. Los algoritmos van a reclutar, analizar la reputación digital, validar la productividad, promocionar —o no— a los trabajadores, fijar su salario.
Este modelo social, que se derrama como el agua sobre el borde de una piscina infinita, lo define muy bien Marc Vidal, experto en transformación tecnológica: “Es la economía del escaso contacto”. Esa distancia social la traen los robots a través de una miríada de algoritmos en ese mar numérico que es la inteligencia artificial.
“El consejero delegado, el jefe, podrá analizar miles de datos, pero bajo qué criterios: hace falta una pantalla ética”, subraya Vidal. Hay programas que ya son capaces de establecer tu estado de ánimo según cómo tecleas el ordenador ese día. El control solo tiene los límites que el hombre le quiera poner. La tecnología trae una tierra de ganadores y vencidos sin exclusas; sin diques.
“La mayor víctima es la privacidad”, avisa Lewis Maltby. “No tienes privacidad en el ordenador de tu jefe. Cualquier email que envías, cada web que visitas, cada palabra que tecleas, es un libro abierto para tu director. Prácticamente todas las grandes empresas estadounidenses realizan algún tipo de vigilancia electrónica”. Pero la legislación española en esto es más garantista que la de EE UU.
El Reglamento General de Protección de Datos (RGPD) ha sido un cortafuegos contra la indefensión. El problema es que la tecnología siempre se adelanta a la normativa. “Tanto, que en algunas negociaciones colectivas será necesario tener en cuenta a los algoritmos”, prevé Jesús Mercader, catedrático de Derecho del Trabajo de la Universidad Carlos III.
“Cualquier email que envías, cada palabra que tecleas, es un libro abierto para tu director. Prácticamente todas las grandes empresas estadounidenses realizan algún tipo de vigilancia electrónica”.
¿Se lo imaginan? ¿Negociar con series matemáticas? Visto desde el otro lado —allí donde el océano es tan extraño que carece de orilla— “se está produciendo la sustitución de algunas de las fórmulas tradicionales del poder empresarial”, indica Jesús Mercader. Cualquier empresario que no quiera verse excluido de su tiempo abraza ahora la responsabilidad tecnológica. ¿Con análoga sinceridad con la que antes vendió en el consejo de administración la responsabilidad social corporativa (RSC), cuyo destino fueron una serie de memorias digitales y en papel que han tenido el valor del peso de la paja?
Derechos digitales
Por eso, la Secretaría de Estado de Digitalización e Inteligencia Artificial está trabajando en una Carta de Derechos Digitales. “Y es que el debate ético que subyace en toda aplicación tecnológica se vuelve particularmente relevante con la IA aplicada a los negocios, dado el enorme potencial que esta tecnología tiene para hacer las cosas bien pero también mal”, asume Guillermo Tena Planas, director del Instituto Cuatrecasas de Estrategia Legal en Recursos Humanos.
Los desafíos que aguardan su turno en la revolución del jefe robot parecen más cerca de Dickens que del taylorismo. “Todo lo poseíamos, pero nada teníamos; íbamos directamente al cielo y nos extraviábamos en el camino opuesto”, escribió el novelista. Porque las preguntas saltan como esquirlas de bronce pulidas en un torno. ¿Ganarán lo mismo quienes tengan un jefe físico y otro virtual? ¿Se enseñará en las escuelas a trabajar para un director robot? ¿Los privilegiados tendrán un jefe tangible y los precarios (todo este universo, por ejemplo, de repartidores), uno digital? ¿El trabajo se volverá menos humano? ¿Aceptarán las generaciones más jóvenes este tipo de jefes?
El problema es complejo porque es injusto incluso cuando las matemáticas resultan “precisas”. “Un ejemplo muy claro es el sexismo en la contratación. Si utilizas un sistema que es predictivamente exacto, vas a penalizar a las mujeres porque ya están penalizadas por la empresa. El problema no es realmente la selección, es la organización. Hay que hacer algo para que sea menos sexista. Y una parte de hacer algo es entrenar tu algoritmo para que resulte distinto a cómo es”, apunta Daniel Kahneman, premio Nobel de Economía y uno de los expertos mundiales en discriminación.
Algunas respuestas maduran solas. La deshumanización del trabajo no necesita la tecnología. Lo demuestra la historia económica. “El uso masivo de la contratación temporal ha sido un paso muy importante en la deshumanización del empleo. A un tercio de los trabajadores españoles (sobre todo, jóvenes, mujeres e inmigrantes) se les acaba la relación laboral sin que medie el despido, sin justificación; la temporalidad solo es real en un 20% de los contratos, el resto es fragmentación de la actividad. No existe diferencia entre que esto lo haga una máquina o la regulación; la deshumanización del empleo no requiere el concurso de un robot”, comenta Carlos Martín, responsable del Gabinete Económico de CC OO. Pero añade una brisa de esperanza: “La buena noticia es que las máquinas deben liberarnos de los trabajos rutinarios y esta mejora productiva tendría que repartirse a través de un recorte de la jornada laboral”.
Determinismo tecnológico
Es imposible negar el lado brillante de la IA o los algoritmos. Pero el reto es que no se quede nadie atrás y que todos los trabajadores tengan unas condiciones de trabajo decentes. Los investigadores de Harvard han descubierto que algoritmos de alta precisión pueden leer los escáneres de diagnóstico de cáncer con un 92% de certeza frente al 96% de los mejores médicos del país. “Muy bien. Pero no hay que caer en la trampa del determinismo tecnológico. Somos los humanos quienes decidimos hasta dónde consentimos que llegue la tecnología. Porque algo sea tecnológicamente posible no significa que debamos permitirlo”, estima el tecnólogo Enrique Dans.
“ Es importante no caer en la trampa de las circunstancias excepcionales que impone la tecnología: debemos asegurarnos de que existen reglas creadas por nosotros”.
Sin embargo, ciertas partes del futuro —predice— resultan innegociables: “Trabajar para algoritmos será algo que se entrene”. Compañías emergentes, proveedores de software y consultoras compiten en ofrecer soluciones que llevan las decisiones automáticas de gestión a toda la arquitectura de la empresa. “Están proliferando las plataformas freelances de tecnología con empleados que trabajan en remoto que tienen unos ingresos por hora muy por encima de la media del salario nacional”, observa Jaime Sol, socio responsable de People Advisory Services de EY. Profesionales buscados con la escasez del almizcle.
“Los trabajadores independientes con alta cualificación son una fuente de talento creciente que cubrirá una parte del empleo del futuro”, sintetiza Cristina Hebrero Rodríguez, responsable de People & Change de KPMG en España. Quizás la Covid-19 haya propagado la distopía antes incluso de que se dispersara el virus. Un trabajo global del año pasado de Oracle y del Future Workplace reveló que el 64% de los entrevistados confía más en un jefe robot que en uno humano. Pues la IA tiene, bien empleada, su propio ecosistema.
En decisiones sutiles y complejas, que requieren contacto humano y delicadeza, existe la oportunidad de aprovechar algoritmos con el fin de aumentar el talento de los trabajadores de forma combinada. No de manera aislada. “En otras palabras, en vez de usar los algoritmos como armas de vigilancia los puedes usar para mejorar la cultura de la empresa”, explica Mike Walsh. Esta es una diapositiva del mañana. Hay otras.
La implantación de la IA —incluyendo robots— aportará 15,7 billones de dólares a la riqueza del planeta en 2030. Da la tentación de escribir: “Si nadie lo impide”. “Porque aumentará la inseguridad entre quien tenga un jefe físico y uno digital. Ya que los trabajos más creativos estarán en la parte física. Hay un riesgo real de que se abra una brecha que conduzca a la discriminación”, alerta el cofundador de la red OuiShare Albert Cañigueral. En términos tecnológicos, “las generaciones jóvenes no son conscientes de lo que se nos viene encima”, avisa Diego Vizcaíno, socio de Analistas Financieros Internacionales (AFI).
Una cuestión de ética
En un discurso de 1962, que se conserva en la Biblioteca John Fitzgerald Kennedy, el presidente estadounidense advirtió de que mantener el pleno empleo era “el mayor desafío del país cuando la automatización estaba reemplazando al hombre”. Los algoritmos, la IA y el machine learning no son malos per se. Liberan de tareas repetitivas, evitan la discriminación a la hora de establecer sueldos o primas y junto al ser humano pueden trabajar a la vez en decisiones complejas y sutiles que requieren el contacto humano y la delicadeza. Pero exigen un sentido moral. “Un jefe máquina debe respetar las mismas obligaciones que un jefe humano, y mantener idénticas pautas éticas. Obedecer la ley, ayudar a los empleados a maximizar su desempeño y contribuir a que su equipo disfrute con su trabajo”, resume Calum Chace, filósofo, escritor británico y autor de Surviving AI (Sobrevivir a la inteligencia artificial). En el otro extremo, el sistema se transforma en un problema cuando “no se siguen las reglas éticas o de gobernanza”, subraya Foteini Agrafioti, responsable de la tecnológica Borealis AI.
Guste o no, las raíces del futuro están arraigando. Algoritmos de última generación y sistemas de vigilancia serán habituales en 2040. Ya hay software que controla sin reparos cómo interactúan los trabajadores en la empresa. Humanyze, una compañía presidida y cofundada por Ben Waber en el MIT Media Lab, monitoriza los correos electrónicos y los mensajes de los trabajadores en las plataformas para entender cómo se comunica la gente. Algunos empleados portan incluso insignias digitales que conectan unos con otros dentro de la oficina. Humanyze insiste en que las identidades son anónimas. El trabajador sabe que alguien del departamento de marketing, ha escrito a alguien del área de ventas. Pero nada más. Solo resulta visible un código alfanumérico. “En nuestras investigaciones en el MIT descubrimos que tener una buena política ética no compromete los resultados del análisis de ninguna organización”, reflexiona Ben Waber. “En otras palabras, no necesitas tener acceso a la información personal o privada de la persona”.
Pero usar la IA o cualquiera de sus variantes para gestionar el trabajo de personas en su horario laboral, pese a las buenas intenciones, es un riesgo y es incierto. La tecnología viaja cercana a la velocidad de luz. La reglamentación que debe regularla, en cambio, respeta la prohibición de 90 kilómetros por hora. Los críticos ven en los algoritmos una forma de deshumanizar los trabajos, provocar estrés y castigar injustamente a los trabajadores. Los empresarios sienten en la IA el nuevo “propósito de la empresa” para maximizar los beneficios. Un capitalismo construido de matemáticas.
De hecho, la crisis ha acelerado la gestión algorítmica. “Está llegando a todas partes. Oficinas, escuelas, universidades, empresas de servicios profesionales”, narra Jeremias Adams-Prassl, profesor de Derecho de la Universidad de Oxford. “Pero mirando al futuro, lo más importante es no caer en la trampa de las circunstancias excepcionales que impone la tecnología: debemos asegurarnos de que existen reglas creadas por nosotros y que se aplican de forma consistente”. Porque si los empresarios tienen la tentación de llevar la inteligencia artificial al límite de los derechos humanos, no serán los robots quienes se rebelen.
Cuando el robot toca la puerta del consejo de administración
El economista Guillermo de la Dehesa ha sido consejero (entre otras empresas) del Banco Santander y Amadeus. El catedrático en economía Emilio Ontiveros se sienta, por ejemplo, en la Mutua Madrileña, Iberdrola España o Torreal. “Un consejero no sabe nada de big data. No tiene una gran alfabetización tecnológica”, advierte Ontiveros. “Pero esto no quiere decir que la tecnología y los robots no tengan cada vez más importancia en la toma de decisiones. En la comercialización de un producto, en la estrategia de marketing, a la hora de entender al cliente. Los robots están presentes en los consejos”, subraya el conomista.
Ya están ahí. “Vivos. Leyendo la sociedad, el negocio y el mundo”. Pero no toman las decisiones finales. “Ese es el espacio aún del ser humano”, defiende Ontiveros. De nadie más. “La inteligencia artificial tiende a sustituir a los individuos, pero estas tecnologías de grandes promesas no terminarán siendo tan eficientes como los cerebros de la gente inteligente”, zanja Guillermo de la Dehesa.
Exponemos a continuación las reflexiones al respecto de los máximos responsables de algunas grandes empresas.
Gonzalo Sánchez, presidente de PwC.
“Los algoritmos y la inteligencia artificial no podrán sustituir la reflexión y la valoración de los consejeros, pero serán una ayuda muy relevante para la toma de decisiones, sobre todo en cumplimiento, estrategia y gestión de recursos”.
María Dolores Dancausa, consejera delegada de Bankinter.
“La inteligencia artificial se ha convertido en uno de los grandes campos de conocimiento y traerá consigo a corto y medio plazo cambios radicales en nuestra forma de relacionarnos con el mundo. Y esto será de aplicación tanto en nuestra vida diaria como en todos los campos económicos y sectores empresariales.
Dentro de la IA, una ciencia surgida hace apenas diez o quince años, como es el análisis de los datos, está cobrando cada vez mayor relevancia. A partir del análisis y procesamiento de ingentes conjuntos de datos, la capacidad de predicción y de acierto en la toma de decisiones, ya sean políticas o empresariales, experimentará avances muy notables. En ese sentido, estoy segura de que veremos una cada vez mayor utilización de sus capacidades en los niveles directivos de las empresas que incluso permitirá automatizar parte de la toma de decisiones. Pero, por supuesto, siempre partiendo de la base de que si bien las oportunidades que ofrecen estas tecnologías son casi infinitas también lo son sus riesgos, por lo que es deber y responsabilidad de los gestores identificarlos y mitigarlos, y que su aplicación se lleve siempre a cabo de manera responsable y sin impacto negativo sobre las personas.
En definitiva, la combinación entre sensibilidad, responsabilidad e intuición humana con la capacidad de procesamiento de estos sistemas incrementará exponencialmente los niveles de acierto directivo”.
Hilario Albarracín, presidente de KPMG.
“La inteligencia artificial va a ocupar cada vez más espacio en la gestión de las empresas como un apoyo a la toma de decisiones gracias a sus capacidades de análisis masivo de datos y la elaboración de predicciones, comportamientos o riesgos, entre otros. No obstante, para que esto ocurra los directivos y consejeros necesitan comprender y explicar cómo y por qué los algoritmos llegan a determinadas conclusiones y asegurar que se ajustan a marcos éticos de conducta”.
José Luis Flórez, consejero delegado de Plaiground, empresa de Inteligencia Artificial de Minsait (Indra).
“La inteligencia artificial va a ocupar cada vez más espacio en la gestión de las empresas como un apoyo a la toma de decisiones gracias a sus capacidades de análisis masivo de datos y la elaboración de predicciones, comportamientos o riesgos, entre otros. No obstante, para que esto ocurra los directivos y consejeros necesitan comprender y explicar cómo y por qué los algoritmos llegan a determinadas conclusiones y asegurar que se ajustan a marcos éticos de conducta”.
“Quien se imagine que por la irrupción del big data y la inteligencia artificial los comités de dirección de una compañía o los consejos de administración se parecen a una sala de guerra, con un montón de monitores mostrando información de la marcha de la empresa, posiblemente se llevaría una decepción al ver la realidad. Lo cual no implica que el impacto de la tecnología haya sido pequeño.
La principal aportación de las tecnologías de análisis de datos ha sido la capacidad de medir prácticamente todos los ámbitos de decisión, permitiendo traducir al lenguaje económico-financiero cuestiones que estaban alejadas de él: cómo desarrollar una experiencia de cliente coherente, agradable y eficaz, cómo evolucionar los productos, cómo valorar las acciones de mis competidores, cuál es la consecuencia de que los empleados trabajen en un entorno cómodo, haciéndoles partícipes del éxito de la compañía…”.
Source link