Todo lo que necesita saber sobre la IA alcanzando la singularidad

Todo lo que necesita saber sobre la IA alcanzando la singularidad

ChatGPT y otros programas de inteligencia artificial han sido temas candentes en las noticias últimamente, al mismo tiempo que nos ponen nerviosos y nos emocionan con nuevas posibilidades en medicina, lingüística e incluso conducción autónoma. Hay un montón de “qué pasaría si” en este futuro conectado, lo que nos hace repensar todo, desde robots asesinos hasta nuestra propia seguridad laboral.

Entonces, ¿deberíamos dar un paso atrás en este tipo de IA turboalimentada para calmar nuestros temores? Eso depende de a quién le preguntes, pero todo se reduce a la idea de singularidad: un “horizonte de eventos” en el que la inteligencia artificial supera a nuestra propia inteligencia.

Según una medida, la singularidad tecnológica podría estar a tan solo siete años de distancia. Eso nos llevó a comunicarnos con expertos en la materia para obtener más información sobre qué es exactamente la singularidad, qué tan cerca estamos y si deberíamos comenzar a tomar la década de 2010. Preppers del fin del mundo reality show más en serio.

vista previa de Popular Mechanics Todas las secciones

¿Qué es la singularidad?

La singularidad es el momento en que la inteligencia de las máquinas se iguala o supera a la inteligencia humana, un concepto en el que visionarios como Stephen Hawking y Bill Gates han creído durante bastante tiempo. La inteligencia artificial puede sonar complicada, pero se define simplemente como computación avanzada que permite que un dispositivo interactúe (a través de una computadora, un teléfono o incluso un algoritmo) y se comunique con su entorno de manera inteligente.

El concepto de singularidad ha existido durante décadas. El matemático inglés Alan Turing, ampliamente considerado como el padre de la informática teórica y la inteligencia artificial, experimentó con la posibilidad de tal cosa en la década de 1950. Se le ocurrió su famoso prueba de Turing averiguar si las máquinas podían pensar por sí mismas; la evaluación enfrenta a un humano contra una computadora, desafiando al sistema para que nos engañe haciéndonos creer que en realidad es humano. La reciente llegada de chatbots de IA altamente avanzados como ChatGPT ha vuelto a poner de relieve la prueba de fuego de Turing. Alerta de spoiler: ya lo pasó.

“La diferencia entre la inteligencia de las máquinas y la inteligencia humana es que nuestra inteligencia es fija, pero ese no es el caso de las máquinas”, dice Ishaani Priyadarshini, becaria postdoctoral en UC Berkeley con experiencia en inteligencia artificial aplicada y singularidad tecnológica. Mecánica Popular. “En los casos de las máquinas, no tiene fin, siempre se puede aumentar, lo que no es el caso de los humanos”. A diferencia de nuestros cerebros, los sistemas de IA se pueden expandir muchas veces; la limitación real es el espacio para albergar toda la potencia informática.

¿Cuándo alcanzaremos la singularidad?

Si bien las afirmaciones de que alcanzaremos la singularidad en la próxima década están en Internet, son, en el mejor de los casos, especulativas. Priyadarshini cree que la singularidad ya existe en partes, casi como un rompecabezas que aún tenemos que completar. Ella apoya las estimaciones que afirman que podemos alcanzar la singularidad en algún momento después de 2030, y agrega que es difícil estar absolutamente seguro con una tecnología de la que sabemos tan poco. Existe una posibilidad muy real de que podría llevar mucho más tiempo alcanzar el “horizonte de eventos” de la singularidad, el punto de no retorno cuando liberamos sistemas informáticos superinteligentes.

Habiendo dicho eso, ya hemos visto signos de singularidad en nuestra vida. “Hay juegos que los humanos nunca pueden ganarle a las máquinas, y eso es un signo seguro de singularidad”, dice Priyadarshini. Para ofrecer algo de perspectiva, la supercomputadora “Deep Blue” de IBM de 1997 fue la primera IA en derrotar a un jugador de ajedrez humano. Y no solo pusieron a Joe Shmoe a batear: Deep Blue se enfrentó a Garry Kasparov, quien era el Campeón Mundial de Ajedrez en ese momento.

“Hay juegos que los humanos nunca pueden ganarle a las máquinas, y eso es un signo seguro de singularidad”.

La singularidad sigue siendo un concepto notoriamente difícil de medir. Incluso hoy, estamos luchando por encontrar marcadores de nuestro progreso hacia ella. Muchos expertos afirman que la traducción de idiomas es la piedra de Rosetta para medir nuestro progreso; por ejemplo, cuando la IA puede traducir el habla al mismo nivel o mejor que un humano, sería una buena señal de que nos hemos acercado un paso más a la singularidad.

Sin embargo, Priyadarshini reconoce que los memes, entre todas las cosas, podrían ser otro marcador de nuestro progreso hacia la singularidad, ya que la IA es notoriamente mala para entenderlos.

¿Qué será posible una vez que la IA alcance la singularidad?

problemas de seguridad de la red

Juan Lund//imágenes falsas

No tenemos idea de lo que sería capaz de hacer un sistema superinteligente. “Tendríamos que ser superinteligentes nosotros mismos”, dice Roman Yampolskiy, profesor asociado de ingeniería informática y ciencias de la computación en la Universidad de Louisville. Mecánica Popular. Solo podemos especular utilizando nuestro nivel actual de inteligencia.

Yampolskiy escribió recientemente un artículo

sobre la IA que predice las decisiones que la IA puede tomar. Y es bastante perturbador. “Tienes que ser al menos así de inteligente para ser capaz de predecir lo que hará el sistema. . . si estamos hablando de sistemas que son más inteligentes que los humanos [super intelligent] entonces es imposible para nosotros predecir invenciones o decisiones”, dice.

Priyadarshini dice que es difícil decir si la IA tiene malas intenciones o no; ella dice que la IA deshonesta se debe simplemente al sesgo en su código, esencialmente un efecto secundario imprevisto de nuestra programación. Críticamente, la IA no es más que la toma de decisiones basada en un conjunto de reglas y parámetros. “Queremos autos que se conducen solos, simplemente no queremos que se salten las luces rojas y choquen con los pasajeros”, dice Priyadarshini. Básicamente, los autos sin conductor pueden considerar que esquivar los semáforos en rojo y los seres humanos es la forma más eficiente de llegar a su destino de manera oportuna.

Mucho de esto tiene que ver con el concepto de incógnitas desconocidas, donde no tenemos la capacidad intelectual para predecir con precisión de qué son capaces los sistemas superinteligentes. De hecho, IBM actualmente estima que solo un tercio de los desarrolladores saben cómo probar adecuadamente estos sistemas en busca de cualquier posible sesgo que podría ser problemático. Para cerrar la brecha, la compañía desarrolló una solución novedosa llamada FreaAI que puede encontrar debilidades en los modelos de aprendizaje automático al examinar segmentos de datos “interpretables por humanos”. No está claro si este sistema puede reducir el sesgo en la IA, pero está claramente un paso por delante de nosotros, los humanos.

“Los investigadores de IA saben que no podemos eliminar el sesgo al 100 % del código. . . por lo tanto, construir una IA que sea 100 por ciento imparcial, que no haga nada malo, será un desafío”, dice Priyadarshini.

¿Cómo puede dañarnos la IA?

Actualmente, la IA no es sensible, lo que significa que actualmente no puede pensar, percibir y sentir de la forma en que lo hacen los humanos. La singularidad y la sensibilidad a menudo se combinan, pero no están estrechamente relacionadas.

Aunque la IA actualmente no es sensible, eso no nos absuelve de las consecuencias no deseadas de la IA deshonesta; simplemente significa que la IA no tiene motivación volverse pícaro. “No tenemos ninguna forma de detectar, medir o estimar si los sistemas están experimentando estados internos. . . Pero no tienen que hacerlo para que se vuelvan muy capaces y muy peligrosos”, dice Yampolskiy. También menciona que incluso si hubiera una manera de medir la sensibilidad, ni siquiera sabemos si la sensibilidad es posible en máquinas.

Esto significa que no sabemos si alguna vez veremos una versión de la vida real de Ava, el robot humanoide de ex machina que se rebela contra sus creadores para escapar del cautiverio. Muchos de estos escenarios del fin del mundo de la IA que se muestran en Hollywood son simplemente, Bueno . . . ficticio. “Una cosa en la que creo bastante es que la IA no es más que un código”, dice Priyadarshini. “Puede que no tenga ningún motivo contra los humanos, pero una máquina que piensa que los humanos son la causa raíz de ciertos problemas puede pensar de esa manera”. Cualquier peligro que represente para los humanos es simplemente un sesgo en el código que podemos haber pasado por alto. Hay formas de evitar esto, pero solo estamos utilizando nuestra comprensión de la IA, que es muy limitada.

Gran parte de esto se debe al hecho de que no sabemos si la IA puede volverse consciente; sin ella, la IA realmente no tiene motivos para perseguirnos. La única excepción notable a esto es el caso de Sophia Sophia, un chatbot de IA que dijo que quería destruir a los seres humanos. Sin embargo, se creía que se trataba de un error en el script del chatbot. “Mientras haya un código incorrecto, habrá sesgo y la IA seguirá estando equivocada”, dice Priyadarshini.

Autoconducción Volviéndose Rogue

Al hablar sobre el sesgo, Priyadarshini mencionó lo que ella llamó “el caso clásico de un automóvil autónomo”. En una situación hipotética, cinco personas conducen por la carretera en un automóvil sin conductor y una persona salta a la carretera. Si el automóvil no puede detenerse a tiempo, es un juego de matemáticas simple: uno contra cinco. “Mataría a un pasajero porque uno es más pequeño que cinco, pero ¿por qué debería llegar a ese punto?”. dice Priyadarshini.

Nos gusta pensar en él como una nueva versión del siglo XXI del Trolley Problem original. Es un experimento mental famoso en filosofía y psicología que te pone en un dilema hipotético como un operador de trolebús sin frenos. Imagínate esto: vas a toda velocidad por las vías a velocidades inseguras. Ves a cinco personas a lo lejos que están en las vías (seguramente serán atropelladas), pero tienes la opción de desviar el carro a una vía diferente con solo una persona en el camino. Claro, uno es mejor que cinco, pero tomaste una decisión consciente de matar a ese individuo.

La IA médica se vuelve rebelde

Yampolskiy hizo referencia al caso de la IA médica a la que se le encomendó el desarrollo de vacunas contra el covid. Menciona que el sistema será consciente de que más personas contrayendo Covid harán que el virus mute, por lo que será más difícil desarrollar una vacuna para todo variantes. “El sistema piensa. . . tal vez pueda resolver este problema reduciendo la cantidad de personas, para que no podamos mutar tanto”, dice. Obviamente, no abandonaríamos por completo nuestro sistema de ensayos clínicos, pero eso no detiene el hecho de que la IA podría desarrollar una vacuna que podría matar a las personas.

“Este es un escenario posible que se me ocurre desde mi nivel de inteligencia. . . vas a tener millones de escenarios similares con un mayor nivel de inteligencia”, dice Yampolskiy. Esto es a lo que nos enfrentamos con la IA.

¿Cómo podemos prevenir el desastre de la singularidad?

Nunca podremos librar a la inteligencia artificial de ninguna de sus incógnitas desconocidas. Estos son los efectos secundarios no deseados que no podemos predecir porque no somos superinteligentes como la IA. Es casi imposible saber de qué son capaces estos sistemas.

“Realmente estamos viendo la singularidad que resulta en una gran cantidad de máquinas deshonestas”, dice Priyadarshini. Si llega al punto de no retorno, no se puede deshacer”. Todavía hay muchas incógnitas sobre el futuro de la IA, pero todos podemos respirar aliviados sabiendo que hay expertos en todo el mundo comprometidos con cosechar los bien de AI sin ninguno de los escenarios del fin del mundo en los que podríamos estar pensando. Realmente solo tenemos una oportunidad para hacerlo bien.

Este contenido se importa de la encuesta. Es posible que pueda encontrar el mismo contenido en otro formato, o puede encontrar más información en su sitio web.

Foto de cabeza de Matt Crisara

Matt Crisara es nativo de Austin y tiene una pasión desenfrenada por los autos y los deportes de motor, tanto nacionales como extranjeros, y como editor de Autos para Mecánica Popular, escribe la mayor parte de la cobertura automotriz en formato digital e impreso. Anteriormente fue escritor colaborador de Motor1 luego de pasantías en Circuit Of The Americas F1 Track y Speed ​​City, una emisora ​​​​de radio de Austin enfocada en el mundo de las carreras de autos. Obtuvo una licenciatura de la Escuela de Periodismo de la Universidad de Arizona, donde compitió en bicicletas de montaña con el equipo del Club Universitario. Cuando no está trabajando, disfruta de las carreras de simulación, los drones FPV y el aire libre.


Source link