Los algoritmos sobrehumanos podrían 'matar a todos' a su debido tiempo, advierten los investigadores

Los algoritmos sobrehumanos podrían ‘matar a todos’ a su debido tiempo, advierten los investigadores


Antes de adentrarnos demasiado en esta carrera de inteligencia artificial, asegurémonos de que no nos estamos preparando para una muerte segura. Esa es la esencia del mensaje reciente que un par de investigadores de la Universidad de Oxford enviaron a la Cámara de los Comunes del Parlamento del Reino Unido.

“Con la IA sobrehumana, existe un riesgo particular que es de una clase diferente, que es que podría matar a todos”, dijo Michael Cohen, candidato a doctorado en ciencias de la ingeniería, durante una audiencia el 25 de enero.

Cohen dio el ejemplo de entrenar a un perro para que realice un truco que le valió un premio. Si el perro simplemente encuentra el armario de golosinas, obtiene la golosina sin necesidad de un ser humano. Luego, Cohen lo llevó más allá:

“Si te imaginas ir al bosque a entrenar a un oso con una bolsa de golosinas, reteniendo y administrando golosinas selectivamente, dependiendo de si está haciendo lo que te gustaría que hiciera, el oso probablemente tomaría las golosinas por la fuerza”.

En otras palabras, no dejemos que la IA se convierta en el oso.

La forma en que entrenamos la IA hoy es como la forma en que entrenamos a los animales. En algún momento, la IA puede volverse capaz de hacerse cargo del proceso y cambiar el paradigma, que es lo que el algoritmo le dice que haga. Cohen continuó:

“Si tienes algo mucho más inteligente que nosotros tratando monomaníacamente de obtener esta retroalimentación positiva, sin importar cómo la hayamos codificado, y se haya apoderado del mundo para asegurar eso, dirigiría tanta energía como pudiera para asegurar su control sobre eso, y eso nos dejaría sin energía para nosotros mismos”.

Estos riesgos solo se presentan con una subclase específica de algoritmos, según Cohen. Al elaborar regulaciones que nos alejen de lo malo y se concentren en lo bueno, él cree que podemos desarrollar estándares internacionales para proteger a los humanos.

“Imagínese que hubiera un botón en Marte etiquetado como ‘dominio geopolítico’, pero en realidad, si lo presionaba, mataba a todos”, dijo Cohen. “Si todos entienden que no existe una carrera espacial para ello, si nosotros, como comunidad internacional, podemos estar en la misma sintonía… Creo que podemos elaborar una regulación que apunte a los diseños peligrosos de la IA y dejar un valor económico extraordinario sobre la mesa a través de algoritmos más seguros. .”

¿Las buenas noticias? AI no está en ese nivel de preocupación—todavía. Bpero una vez que puede comenzar a hacer lo que le pedimos mejor que nosotros, entonces se vuelve sobrehumano. Y eso se convierte en un problema del que tal vez no podamos dar marcha atrás.

“Si tu vida dependiera de vencer a una IA en el ajedrez”, dice Cohen, “no estarías contento con eso”.

Foto de cabeza de Tim Newcomb

Tim Newcomb es un periodista que vive en el noroeste del Pacífico. Cubre estadios, zapatillas, equipo, infraestructura y más para una variedad de publicaciones, incluida Popular Mechanics. Sus entrevistas favoritas han incluido reuniones con Roger Federer en Suiza, Kobe Bryant en Los Ángeles y Tinker Hatfield en Portland.


Source link