Tecnología

Los cálculos muestran que los humanos no pueden contener máquinas superinteligentes

  • Los investigadores dicen que es poco probable que alguna vez podamos contener una inteligencia artificial superinteligente lo suficientemente grande.
  • La premisa suena aterradora, pero conocer las probabilidades ayudará a los científicos que trabajan en estos proyectos.
  • La IA de autoaprendizaje ya existe y puede enseñarse por sí misma cosas que los programadores no «comprenden completamente».

    En un nuevo estudio, investigadores del Instituto Max Planck de Desarrollo Humano de Alemania dicen que han demostrado que una inteligencia artificial en la categoría conocida como «superinteligente» sería imposible de contener para los humanos con software de la competencia.

    Eso … no suena prometedor. ¿Pero realmente estamos todos condenados a inclinarnos ante nuestros señores supremos inteligentes de la IA?

    El mundo es jodidamente extraño. Vamos a entenderlo juntos.

    El Instituto de Desarrollo Humano de Berlín estudia cómo aprenden los seres humanos y cómo posteriormente construimos y enseñamos a las máquinas a aprender. Una IA superinteligente es aquella que excede la inteligencia humana y puede enseñarse a sí misma cosas nuevas más allá del alcance humano. Es este fenómeno el que provoca una gran cantidad de pensamiento e investigación.

    El comunicado de prensa de Planck señala que las IA superinteligentes ya existen en algunas capacidades. «[T]aquí ya hay máquinas que realizan ciertas tareas importantes de forma independiente sin que los programadores comprendan completamente cómo las aprendieron ”, explica el coautor del estudio Manuel Cebrian. “Por lo tanto, surge la pregunta de si esto podría en algún momento volverse incontrolable y peligroso para la humanidad”.

    Este contenido se importa de {embed-name}. Es posible que pueda encontrar el mismo contenido en otro formato, o puede encontrar más información, en su sitio web.

    Los matemáticos, por ejemplo, utilizan el aprendizaje automático complejo para ayudar a resolver valores atípicos de pruebas famosas. Los científicos utilizan el aprendizaje automático para encontrar nuevas moléculas candidatas para tratar enfermedades. Sí, gran parte de esta investigación implica una cierta cantidad de resolución de «fuerza bruta»: el simple hecho de que las computadoras pueden correr a través de miles de millones de cálculos y acortar estos problemas de décadas o incluso siglos a días o meses.


    Cosas geniales que amamos: Los mejores libros sobre IA


    Debido a la cantidad que el hardware de la computadora puede procesar a la vez, el límite donde la cantidad se convierte en calidad no siempre es fácil de determinar. Los humanos temen a la IA que puede aprender a sí misma, y ​​a Isaac Asimov Tres leyes de Robótica (y generaciones de variaciones de ellos) se han convertido en un instrumento para la forma en que la gente imagina que podemos protegernos de una IA malvada o pícara. Las leyes dictan que un robot no puede dañar a las personas y no puede recibir instrucciones de hacerlo.

    El problema, según estos investigadores, es que probablemente no tengamos una manera de hacer cumplir estas leyes u otras similares. Del estudio:

    “Sostenemos que la contención total es, en principio, imposible, debido a los límites fundamentales inherentes a la computación en sí. Suponiendo que una superinteligencia contendrá un programa que incluye todos los programas que pueden ser ejecutados por una máquina universal de Turing en una entrada potencialmente tan compleja como el estado del mundo, la contención estricta requiere simulaciones de dicho programa, algo teórica (y prácticamente) imposible. . «

    Básicamente, una IA superinteligente habrá adquirido tanto conocimiento que incluso planear un contenedor lo suficientemente grande excederá nuestro alcance humano. No solo eso, sino que no hay garantía de que podamos analizar lo que la IA haya decidido que es el mejor medio. Probablemente no se parezca en nada a nuestros torpes lenguajes de programación hechos por humanos.

    Esto puede sonar aterrador, pero también es información extremadamente importante para los científicos. Sin el fantasma de un «algoritmo a prueba de fallos», los investigadores informáticos pueden poner su energía en otros planes y tener más cuidado.


    🎥 Ahora mira esto:


    Este contenido es creado y mantenido por un tercero y se importa a esta página para ayudar a los usuarios a proporcionar sus direcciones de correo electrónico. Es posible que pueda encontrar más información sobre este y contenido similar en piano.io


Source link

Neto

Soy Neto, creador de LaNetaNeta.com Me apasiona leer y aprender, disfruto escribir y compartir publicaciones interesantes con el publico.

¿Ya viste esto?

Botón volver arriba