“Dependemos demasiado de la tecnología: apaga las notificaciones y no mires el móvil cada cinco minutos”

John Hennessy (Nueva York, 1952) y David Patterson (Illinois, Estados Unidos, 1947) no son dos personas cualquiera en la ciencia computacional. Su trabajo durante la década de los 70 en la llamada arquitectura de los ordenadores (la forma en la que estos aparatos están construidos) permitió que se estandarizara su fabricación y mejorase su eficiencia, dando paso al boom tecnológico actual y el de décadas pasadas. Hennessy, además es el actual presidente de Alphabet, la matriz de Google, y ha sido presidente de la Universidad de Stanford. Patterson, por su parte, fue profesor de la Universidad de Berkeley durante 40 años hasta 2016. Ambos ganaron el Premio Turing en 2017 por su contribución a la ciencia computacional.

De la misma manera, la Fundación BBVA ha anunciado esta semana que ha concedido el Premio Fronteras del Conocimiento en Tecnologías de la Información y la Comunicación a ambos por “fundar como nueva área científica la arquitectura de ordenadores, la disciplina que diseña el cerebro de todo sistema informático, su procesador central”. Juntos, crearon en los 80 el sistema RISC, las siglas en inglés de ordenadores con conjunto de instrucciones reducido, que sigue estando vigente en los ordenadores actuales (lo usan cerca del 99% de los productos del mercado, según datos de la ACM. “Estamos en una nueva edad de oro de los ordenadores”, aseguran en esta entrevista realizada por videoconferencia.

Pregunta. Cuando comenzaron a trabajar, la arquitectura de ordenadores era un lío, con todos los fabricantes operando por su cuenta. ¿Es así?

David Patterson. Los ordenadores se habían diseñado hacía décadas, y se habían desarrollado de un modo particular. Lo que era relativamente nuevo eran los microprocesadores. Su irrupción nos llevó a la idea de que había que hacer las cosas de una forma completamente diferente. Sobre todo, debido a la llamada Ley de Moore, que desde 1965 expresa que aproximadamente cada dos años se duplica el número de transistores en un microprocesador. Ahora, los microprocesadores son más potentes que las unidades centrales (mainframe computers).

P. ¿Cómo explicarían el sistema que idearon, RISC a una persona que no tiene ni idea de ordenadores?

D. P. Bueno, John y yo tenemos mucha experiencia con esa pregunta… Cuando un programa (software) habla con la máquina (hardware) usa un vocabulario. El nombre de ese vocabulario es conjunto de instrucciones (instruction set). Podemos imaginar un vocabulario que tiene largas palabras de muchas sílabas. Si leyésemos una novela compuesta con esas palabras nos llevaría más tiempo, porque sería más difícil de entender. La alternativa pasa por tener muchas más palabras más cortas, que te permitirían leer de una forma más rápida aunque la novela fuese más larga. La cuestión es, ¿dónde está el equilibrio entre ambas formas para lograr la mayor eficiencia? Al final, constatamos que era cuatro veces más rápido usar un vocabulario más corto y sencillo. Al principio era una cuestión controvertida, y casi filosófica.

P. ¿Se puede decir de alguna manera que su trabajo ha permitido el boom de la tecnología que estamos viviendo?

John Hennessy: Bueno, a nosotros nos motivaban todos los cambios que se estaban produciendo. Y creo que constituye un buen recordatorio de que siempre que hay una disrupción, como la que estaba sucediendo en aquel entonces con el salto a los microprocesadores, hay que echar la vista atrás y revisar la forma en la que estás solucionando los problemas y preguntando si esa manera sigue siendo válida.

P. ¿Qué pinta tenían los ordenadores en aquella época?

J. H. Eran inmensos ordenadores y unidades centrales. El ordenador que nosotros usamos para desarrollar nuestro trabajo era la VAX-11/780 [un ordenador comercializado en 1977 por Digital Equipment Corporation (DEC), empresa que fue adquirida por Compaq en los 90 y esta, a su vez, por Hewlett Packard en 2002,], que costaba entre 250.000 y 500.000 dólares, y era mucho más lento de lo que cualquier teléfono inteligente s actualmente.

D. P. Tenía el tamaño de una nevera. Recuerdo estar dando clase y decir “algún día, un solo chip será más rápido que esta nevera”… Era tan grande que a la electricidad le llevaba tiempo llegar a todos sus componentes. En aquel momento, los estudiantes se rieron, creían que cuanto más grandes más rápidos…

P. ¿Estamos experimentando una edad de oro de los ordenadores, no solo de los tradicionales, sino también gracias a móviles y otros dispositivos? ¿Se atreven a hacer un pronóstico hacia dónde nos dirigimos, dado que la Ley de Moore está llegando a su fin?

D. P. Absolutamente. En el pasado, la mitad del desarrollo tenía que ver con los avances en los semiconductores, y la otra mitad con lo que hacemos John y yo, en cómo juntas estos dispositivos. Debido al fin de la Ley de Moore y el hecho de que la gente sigue queriendo que sus ordenadores sean cada vez más rápidos, el peso recaerá cada vez más en la arquitectura. Esta va a ser la década de la arquitectura de ordenadores.

J. H. Esto se puede observar en el chip de Apple M1 [el primero que la compañía ha instalado en sus Mac tras su ruptura con Intel], que combina procesadores específicos para cada tarea. Estamos dando el salto hacia procesadores generales hacia una especialización de los componentes para lograr más eficiencia. La clave es la especialización: hacer pequeños ordenadores que hagan una sola cosa más eficazmente.

P. ¿Qué opinan de los ordenadores cuánticos? ¿Serán una alternativa viable?

D. P. Tengo curiosidad por oír a John sobre esto. Es una tecnología excitante, pero habrá apenas 20 o 30 cosas que pueda hacer, y, además, son ordenadores de gran tamaño: no va a haber teléfonos cuánticos. Estos aparatos van a estar alojados en centros de datos. No sería eficiente.

J. H. Creo que el área en el que se está trabajando son lo que llamamos near-intermediate quantum, buscando aplicaciones que puedan trabajar con ordenadores de menor tamaño, porque a corto o medio plazo estas máquinass no van a ser capaces de solucionar grandes problemas. Se están buscando aplicaciones, es una caza que se está llevando a cabo actualmente, no hay ninguna killer application (aplicación de éxito que conlleve un avance de una tecnología).

D. P. Y además está el tema del frío con el que tienen que operar. Y tampoco va a servir mucho para el aprendizaje automático (machine learning), porque resulta difícil introducir datos en estos aparatos.

P. Cree que dependemos demasiado de ordenadores y de la tecnología en general hoy en día?

J. H. Creo que puede que sí. Pero es simple: apaga las notificaciones y no consultes tu móvil cada cinco minutos. Eso crearía un estilo de vida más saludable. Eso sí, requiere algo de disciplina.

D. P. Soy parte de la generación de la televisión. Crecí con ella, y algunos padres dejaban a sus hijos ver lo que quieran cuando quieran. Los míos no, me imponían restricciones. Pasa lo mismo con la tecnología: si permites a tus hijos que usen internet y la tecnología en general todo el rato, probablemente no los estés criando de la manera correcta. No vas a tener una vida equilibrada, especialmente con la pandemia, si todo lo que haces es ver Netflix. O los videojuegos…

Una cosa es hacer tu trabajo, sobre todo durante la pandemia… Y gracias a que existen los ordenadores… sin ellos, yo no tendría trabajo, para empezar. La tecnología es habilitadora, pero también es adictiva y seductora. Es peligroso usarla demasiado, pero no tengo claro cuál es la solución.

D. P. Hay un visionario célebre en la ciencia de la computación llamado Alan Kay. Hace 40 años tuvo una idea revolucionaria llamada el Dynabook. Su definición era que “el ordenador será tan importante que si te lo dejas en casa, tendrás que dar la vuelta para ir a buscarlo”. De lo que él hablaba, lo vemos ahora, era del teléfono móvil. Es una tecnología crítica que usamos mucho. Pero no puedo criticar a gente que crea productos que la gente adora usar. Se pide a los científicos que tengan cuidado con lo que crean debido a sus consecuencias, pero este es más bien un problema de popularidad.

P. ¿Creen que habría que limitar lo que las máquinas son capaces de aprender a hacer?

D. P. Mi colega Stewart J. Russell es uno de los grandes impulsores de la inteligencia artificial y ha escrito alguna de las obras más famosas sobre inteligencia artificial. Él es uno de los que ha comenzado a definir reglas sobre lo que los ordenadores pueden hacer antes de que se convierta en algo sensible. Y, aunque este no es mi área, creo que el peligro es lejano todavía: quizás queda un siglo, o más. Yo ya Estoy impresionado con las cosas que las máquinas pueden hacer. Sobre todo, los coches sin conductor: cuando esta tecnología se implante, se ahorraran cientos de miles de millones en accidentes de tráfico. Tendrá la misma importancia que el surgimiento de internet.

J. H. No significa que o haya que preocuparse de la tecnología. Todas las tecnologías tienen usos buenos y malos. La inteligencia artificial se puede convertir en un arma poderosísima, y debería haber un acuerdo internacional en que no se debe usar nunca. Tenemos que llegar a acuerdos. Y, por supuesto, también habrá desequilibrios económicos, a igual que sucedió con la Revolución Industrial. Pero también se crearán nuevas oportunidades.

Puedes seguir a EL PAÍS TECNOLOGÍA RETINA en Facebook, Twitter, Instagram o suscribirte aquí a nuestra Newsletter.




Source link