John Etchemendy: “La tecnología tiene un enorme potencial para hacer daño”



JOHN ETCHEMENDY no es el tipo de personaje que uno espera encontrarse en Silicon Valley. Se trata de un veterano de la labor académica, que ha dedicado toda su vida a la reflexión y el análisis. Es un humanista más interesado en el pensamiento que en la acción. Su especialidad es el lenguaje, sus orígenes y sus complicados laberintos para la expresión de ideas. Su vínculo con la Universidad de Stanford se remonta a 1982, cuando obtuvo allí su graduación como filósofo, y culminó en el año 2000 con su nombramiento como rector, cargo que ocupó hasta 2017.
Su actividad en Stanford, el centro que actúa como sostén intelectual de toda la revolución tecnológica que se ha producido en las últimas décadas en la zona, le permitió familiarizarse con las figuras y las innovaciones que continuamente surgían a su alrededor. Pero nunca perdió la referencia de sus auténticas pasiones académicas ni disminuyó su inclinación por cuestionar cualquier ortodoxia imperante. Su libro más famoso, The Concept of Logical Consequence (El concepto de la consecuencia lógica), está considerado por los expertos como una obra maestra que desafía la lógica impuesta durante siglos sobre la construcción del lenguaje y la ordenación del pensamiento.
Antes de abandonar su función como rector decidió, también a contracorriente, responder a lo que considera una ola de intolerancia cultural que está actualmente amenazando la libertad y la creación en las universidades de Estados Unidos y quizá de todo el mundo. “He visto un crecimiento de la intolerancia en las universidades de este país. No hablo de intolerancia por razones de raza, de etnia o de sexo —en esos apartados, precisamente, se ha hecho un progreso muy loable—. Me refiero a una intolerancia intelectual, a una imposición política de un solo lado, que es la antítesis de lo que una universidad debe hacer”, advertía Etchemendy a los miembros del Patronato de Stanford.
En su discurso de despedida recordó: “Como institución, somos continuamente presionados por las Facultades y por los estudiantes para tomar posiciones políticas, y cada vez que nos negamos a hacerlo se nos acusa de falta de coraje. En las universidades, hoy, lo más fácil es sucumbir a esa presión. Lo que realmente requiere coraje es resistirla”. Pidió a su universidad “no descartar los puntos de vista distintos como si fueran malvados, ignorantes o estúpidos”, sino, al contrario, convertirlos en “interlocutores valiosos”. “Sucumbimos al pensamiento único porque es más fácil y más cómodo que el pensamiento racional, pero cuando lo hacemos estamos abandonando la misión a la que una institución como esta debe servir”.

John Etchemendy. Carlos Chavarría.

Su historia personal tampoco es muy común. Etchemendy, como su nombre revela, tiene raíces vascas. Es el nieto de un pastor emigrado desde el norte de Navarra a Nevada a principios del siglo pasado. Nevada, junto a Idaho, es el Estado que reúne la mayor concentración de norteamericanos de ese origen. Él habla con orgullo de sus antepasados e incluso puso en marcha durante algunos años un centro de estudios vascos en Stanford, del que se sirvió en su día el lendakari Iba­rretxe para contar su proyecto independentista en Estados Unidos. Etchemendy no parece ahora muy interesado en los asuntos españoles; ni siquiera se atreve a usar en público el español que aprendió durante unos años de juventud en Puerto Rico.
Su preocupación ahora, a los 67 años, está muy lejos de todo eso, muy lejos incluso de sus recientes obligaciones universitarias y pasiones intelectuales. Su ocupación hoy, dicho en términos elementales pero que Etchemendy acepta y comparte, es evitar que desarrollemos la inteligencia artificial de forma tan negligente que un día los robots puedan convertirse en nuestros peores enemigos.

Sí, suena improbable, y lo es, por el momento. Pero la Universidad de Stanford y parte de la industria perciben ya riesgos suficientes como para reunir a un grupo de expertos que velarán por el buen uso de la inteligencia artificial y tratarán de definir las reglas adecuadas.
La inteligencia artificial es desde hace tiempo el gran asunto en Silicon Valley. También es la gran apuesta y la gran inversión. No hay empresa relevante en el entorno que no esté implicada en algún proyecto que tenga que ver con esa materia. Todo el mundo está convencido de que la inteligencia artificial, que ya es una parte importante de nuestra vida, intervendrá en prácticamente todas las actividades humanas en poco tiempo y suplantará muchas de ellas antes de lo que creemos.
Ante esa convicción, unida a la preocupación sobre los efectos que esa revolución está teniendo y tendrá para la humanidad, para el mundo que hemos conocido y conocemos, Stanford encargó en marzo a Etchemendy y a una reconocida pionera tecnológica, Fei-Fei Li, antigua vicepresidenta de Google, dirigir un grupo de trabajo que debe iluminarnos a todos sobre las virtudes y amenazas de la inteligencia artificial.
El centro creado tiene un nombre largo que explica muy bien su misión: Instituto para la Inteligencia Artificial Centrada en los Humanos. Se le conoce como HAI, por la abreviación de sus siglas en inglés; estará dotado con un presupuesto de 1.000 millones de dólares y cuenta con un consejo asesor del que forman parte, entre otros, el fundador de LinkedIn, Reid Hoffman; el antiguo presidente de Google, Eric Schmidt, y la antigua jefa de Yahoo, Marissa Mayer. Otros reconocidos inversores, empresarios y talentos, entre ellos Bill Gates, apoyan la iniciativa y le darán respaldo y cobertura.
El objetivo es generar debates y estudios que no estén monopolizados por los técnicos, y que ostenten autoridad académica y política suficiente para dictar la ley en el desarrollo de la inteligencia artificial. Stanford, que ha destinado un gran edificio a este instituto, es su sede inevitable. Junto al MIT y Carnegie Mellon, Stanford representa la vanguardia en innovación tecnológica y, específicamente, en inteligencia artificial. El término mismo fue acuñado por John McCarthy, en 1955, en un laboratorio de Stanford.

“La inteligencia artificial ha provocado preguntas que tienen que ser contestadas por los economistas, por los filósofos, por los expertos en leyes”

Ahora, muchos años después, parece necesario sacar la inteligencia artificial de las manos de los ingenieros y los técnicos. Es que el terreno de la inteligencia artificial ya no es solamente un espacio para la tecnología y la ciencia de computadores; es un terreno que abarca absolutamente todas las disciplinas intelectuales. Por eso creemos que en esta universidad tenemos una particular responsabilidad con la sociedad. Stanford es una universidad muy extensa: tenemos siete escuelas, todas muy fuertes, y existen muchas conexiones entre ellas. La inteligencia artificial ha despertado dudas, provocado preguntas a las que no pueden responder únicamente los científicos de computadoras, los ingenieros y programadores, sino que tienen que ser contestadas por los economistas, por los filósofos, por los expertos en leyes… Nosotros sentimos que tenemos la obligación de tratar de responder a esas preguntas, tenemos una larga tradición en esa área y por eso hemos decidido crear un gran instituto como este.
¿Y qué hace un filósofo en una aventura como esta? Efectivamente, soy un filósofo. Pero también soy un lógico [esa es su especialidad]. Y la lógica es la más técnica de todas las disciplinas filosóficas. Yo he estado de alguna forma vinculado a la inteligencia artificial prácticamente desde que empecé mi actividad académica, en 1978. He asistido al desarrollo de ese sector. Yo no hago inteligencia artificial, pero la he visto crecer. Yo acepto la tecnología como una extraordinaria promesa, como una gran fuente de producción de beneficios para todos los individuos del planeta si la aplicamos de la forma correcta, si la aplicamos para solucionar los problemas adecuados. Al mismo tiempo, tiene un enorme potencial para hacer daño, bien sea de manera intencionada o accidental. Ya existen casos en los que ciertos sistemas de inteligencia artificial han sido creados de forma discriminatoria contra un determinado grupo social, y de ahí han partido decisiones discriminatorias sobre, por ejemplo, quién puede tener acceso a un crédito y quién no.
¿A qué se refiere? Es muy simple para el empleado de un banco decirle a una familia: no les doy un crédito porque mi computadora me ha dicho que no se lo dé. Cada vez que usemos el data de forma discriminatoria, por cualquier razón, provocará medidas concretas que mostrarán esa discriminación y que perjudicarán o agravarán la situación de un determinado segmento de la población. Los datos pueden ser tan discriminatorios como el ser humano que los usa, pero con el agravante de que toda esta aura, toda esta admiración ciega por la tecnología, nos hace pensar que las decisiones que toma un computador son muchos más fiables que las que toma un individuo. Eso es un gran peligro.
Y supongo que eso es solo un ejemplo de peligros aún mayores. Claro. Hay tecnología muy poderosa, como la tecnología nuclear, la biotecnología, que todos sabemos que puede ser utilizada para el bien, pero también para el mal. Nuestro instituto está dedicado a intentar que el lado bueno prevalezca sobre el lado malo.

“Creímos que teníamos derecho a utilizar la tecnología de forma anónima. Y eso ha llevado a todo este mundo de trols, odio y acoso que vemos en Internet”

¿Nos estamos deshumanizando? ¿Puede la inteligencia artificial destruir las cualidades que nos definen como seres humanos? Existe ese peligro, en efecto. No solo en relación con la inteligencia artificial. También existe ese peligro en relación con la tecnología de la comunicación. Internet y las redes sociales son buenos ejemplos de tecnologías que cuando las creamos no éramos conscientes de los malos usos que podrían tener o de las malas consecuencias que podían traer. Por poner un ejemplo: en un comienzo creíamos que, por supuesto, teníamos el derecho a utilizar la tecnología de forma anónima. Se tomó la decisión colectiva de que tendríamos el derecho a comentar cualquier cosa sin necesidad de identificarnos. Y eso ha conducido a todo este mundo de trols, odio y acoso que vemos en Internet. Ese es un ejemplo de cómo la tecnología tiene la capacidad de dividirnos y enfrentarnos como sociedad de muchas formas. Ahora, la inteligencia artificial puede resolver eso o puede agravarlo. Yo creo que más bien puede agravarlo. De hecho, los robots en las redes sociales están haciendo ya un enorme daño. Lo que tenemos que hacer es que la tecnología sea ahora capaz de combatir ese mismo problema que ha creado, que sea capaz de identificar los robots que están haciendo ese daño y que la propia tecnología sea capaz de detenerlos.
¿Cuánto falta para que nos veamos rodeados de robots como los de las películas? Robots como los de las pe­lículas están todavía muy, muy lejos. La gente que trabaja en inteligencia artificial o que observa y analiza la inteligencia artificial siempre ha infravalorado las dificultades de dar el siguiente paso. Pasar de donde estamos ahora a algo que se parezca a los robots que vemos en las películas supondrá décadas. Previamente tenemos que decidir si queremos llegar a ellos. Podemos conseguir enormes beneficios de la inteligencia artificial sin tener que recrear jamás un modelo de inteligencia artificial similar a un ser humano. No es necesario. Tenemos un planeta lleno de seres humanos: ¿para qué queremos crear seres humanos artificiales? El objetivo se supone que es crear artefactos que nos permitan vivir mejor, que ayuden a los humanos de diferentes formas, a cumplir diferentes tareas.

John Etchemendy, en el patio principal de la Universidad de Stanford, el día de la entrevista. Carlos Chavarría

¿Pueden los robots llegar a tomar el poder? [Repite lentamente: “¿Pueden los robos tomar el poder?”.] Si lo hacen, será porque nosotros hemos hecho algo muy estúpido. Y espero que podamos prevenir eso, espero que seamos lo suficientemente inteligentes en el desarrollo de esa tecnología como para evitar ese futuro posible.
En cierto modo ya lo han hecho, ya dirigen nuestras vidas de forma muy significativa, ¿no cree? Es verdad, están tomando cierto control sobre nuestras vidas, pero no el poder. Los móviles se han hecho muy adictivos, y ese es otro ejemplo de los riesgos que no tuvimos en cuenta cuando se desarrolló esa tecnología. La persona que diseñó el iPhone [Jonathan Ive] fue un alumno mío. Me consta que nunca previó lo importante que ese instrumento llegaría a ser en la vida de las personas. Estaba orgulloso, sabía que era un gran producto. Lo desarrolló de una forma muy secreta. Tanto que solía contar que después, una vez puesto a la venta, cada vez que veía a una persona con un iPhone, él todavía se preguntaba: “¡Dios mío, ¿cómo lo ha conseguido?!”. En Apple sabían que tenían un gran producto, un artefacto capaz de realizar varias funciones. Si recuerdan la presentación de Steve Jobs, dijo que el iPhone podría hacer tres cosas: servir como un teléfono, dar acceso a Internet y reproducir música. Pero la verdad ha sido que esto [señala al iPhone que graba la entrevista] no hace tres cosas, esto hace infinidad de cosas, ¡y se ha convertido en una parte tan importante en nuestras vidas…! Estoy convencido de que nadie anticipó eso.
¿Cuáles son los peligros de la inteligencia artificial directamente relacionados con la actividad política? Obviamente, existe una preocupación sobre la forma en que la inteligencia artificial ha afectado y puede afectar quizás en ciertas campañas electorales. Quizás. De lo que estoy completamente convencido es de que es extremadamente importante que los políticos entiendan la tecnología mucho mejor de lo que la entienden ahora, de tal forma que puedan tomar medidas importantes, las leyes adecuadas; no hablo de leyes intrusivas, pero sí de leyes que guíen la tecnología por el buen camino y no por el malo. Esta es una de las funciones que quiere tener nuestra institución: quiere ayudar a educar a la clase política, quiere promover políticas que son esenciales para que todo esto salga bien. El gobernador de California [Gavin Newson] estuvo con nosotros recientemente. Obviamente, California, donde gran parte de esta tecnología se desarrolla, está muy preocupada por las consecuencias de todo esto, por su impacto en el mercado de trabajo, y él nos pidió: “Por favor, asegúrense de que el impacto de esto no resulte devastador para la población de California”.
¿Y qué le contestaron? ¿Qué se puede hacer? No creemos que tengamos parte ni mucho menos la totalidad de las respuestas para las dudas que está planteando la inteligencia artificial. A lo que nos hemos comprometido es a poner en marcha un proceso que permita resolver adecuadamente los problemas y elaborar políticas correctas. Lo que podemos hacer como universidad, y como una universidad situada donde está situada Stanford, es juntar a todos los involucrados en y por la inteligencia artificial: industria, Gobierno, países extranjeros, universidades… para abordar problemas y buscar las políticas adecuadas, para buscar cuál es la forma de evitar hacer daño a los negocios, a la economía, y conseguir beneficios para el conjunto de la sociedad.
¿Harán recomendaciones específicas? Sí, haremos recomendaciones específicas. Nuestra esperanza es conducir este proceso de una forma correcta y conseguir respuestas suficientes para elaborar, digamos, un libro blanco, algo que podamos sacar diciendo: así es como lo vemos. Para iluminar a los Gobiernos a tomar las medidas que permitan aprovechar los beneficios de la inteligencia artificial sin sufrir sus consecuencias negativas. 


Source link