En Resumen
- Eliezer Yudkowsky advirtió que los sistemas de IA son cajas negras inseguras y argumentó que si alguien construye AGI todos mueren.
- Max More defendió que AGI podría ayudar a prevenir la extinción por envejecimiento y advirtió que el exceso de contención llevaría a controles autoritarios.
- Anders Sandberg relató que casi usó un LLM para diseñar un arma biológica y propuso que la seguridad aproximada es suficiente para mitigar riesgos.
Un agudo debate sobre el futuro de la inteligencia artificial se desarrolló esta semana mientras cuatro prominentes tecnólogos y transhumanistas debatían si la construcción de una inteligencia artificial general, o AGI, salvaría a la humanidad o la destruiría.
El panel organizado por la organización sin fines de lucro Humanity+ reunió a uno de los "Pronosticadores del Apocalipsis" de la IA más vocales, Eliezer Yudkowsky, quien ha pedido el cese del desarrollo de IA avanzada, junto al filósofo y futurista Max More, el neurocientífico computacional Anders Sandberg y la Presidenta Emérita de Humanity+, Natasha Vita‑More.
Su discusión reveló desacuerdos fundamentales sobre si la AGI puede estar alineada con la supervivencia humana o si su creación haría inevitable la extinción.
El problema de la "caja negra"
Yudkowsky advirtió que los sistemas de IA modernos son fundamentalmente inseguros porque sus procesos de toma de decisiones internos no pueden ser completamente comprendidos o controlados.
"Cualquier cosa que sea una caja negra probablemente terminará con problemas notablemente similares a la tecnología actual", advirtió Yudkowsky. Argumentó que la humanidad tendría que alejarse "muy, muy lejos de los paradigmas actuales" antes de que la IA avanzada pudiera desarrollarse de manera segura.
La inteligencia artificial general se refiere a una forma de IA que puede razonar y aprender en una amplia gama de tareas, en lugar de ser construida para un solo trabajo como la generación de texto, imágenes, o videos. La AGI está a menudo asociada con la idea de la singularidad tecnológica, porque alcanzar ese nivel de inteligencia podría permitir a las máquinas mejorar más rápidamente de lo que los humanos pueden seguir el ritmo.
Yudkowsky señaló la analogía del "maximizador de clips de papel" popularizada por el filósofo Nick Bostrom para ilustrar el riesgo. El experimento mental presenta una IA hipotética que convierte toda la materia disponible en clips de papel, profundizando su fijación en un único objetivo a expensas de la humanidad. Yudkowsky dijo que agregar más objetivos no mejoraría significativamente la seguridad.
Refiriéndose al título de su reciente libro sobre IA, "Si Alguien lo Construye, Todos Mueren," dijo: "Nuestro título no es como que podría matarte posiblemente," dijo Yudkowsky. "Nuestro título es, si alguien lo construye, todos mueren."
Pero More desafió la premisa de que la extrema precaución ofrece el resultado más seguro. Argumentó que la AGI podría brindar la mejor oportunidad para que la humanidad supere el envejecimiento y las enfermedades.
"Lo más importante para mí es que la AGI podría ayudarnos a prevenir la extinción de cada persona que está viva debido al envejecimiento", declaró More. "Todos estamos muriendo. Nos dirigimos hacia una catástrofe, uno por uno." Advertía que un exceso de contención podría llevar a los gobiernos hacia controles autoritarios como la única forma de detener el desarrollo de la IA a nivel mundial.
Sandberg se posicionó entre los dos bandos, describiéndose a sí mismo como "más optimista" pero manteniéndose más cauteloso que los optimistas transhumanistas. Relató una experiencia personal en la que casi utilizó un Large Language Model para ayudar en el diseño de un arma biológica, un episodio que describió como "horroroso".
"Estamos llegando a un punto en el que amplificar a actores maliciosos también va a causar un gran desastre", dijo Sandberg. Aun así, argumentó que la seguridad parcial o "aproximada" podría ser alcanzable. Rechazó la idea de que la seguridad deba ser perfecta para ser significativa, sugiriendo que los humanos podrían al menos converger en valores compartidos mínimos como la supervivencia.
"Entonces, si exiges una seguridad perfecta, no la obtendrás. Y eso suena muy mal desde esa perspectiva", dijo. "Por otro lado, creo que podemos tener una seguridad aproximada. Eso es suficiente."
Escepticismo sobre la alineación
Vita-More criticó el propio debate de alineación más amplio, argumentando que el concepto asume un nivel de consenso que no existe ni siquiera entre colaboradores de mucho tiempo.
"La noción de alineación es un esquema de Pollyanna", dijo. "Nunca estará alineado. Quiero decir, incluso aquí, todos somos buenas personas. Nos conocemos desde hace décadas, y no estamos alineados."
Describió la afirmación de Yudkowsky de que la AGI inevitablemente mataría a todos como un "pensamiento absolutista" que no deja espacio para otros resultados.
"Tengo un problema con la afirmación generalizada de que todos mueren", dijo. "Abordar esto como futurista y pensador pragmático, no deja consecuencia, alternativa, ni otro escenario. Es simplemente una afirmación tajante, y me pregunto si refleja un tipo de pensamiento absolutista."
La discusión incluyó un debate sobre si una integración más cercana entre humanos y máquinas podría mitigar el riesgo planteado por AGI, algo que el CEO de Tesla, Elon Musk, ha propuesto en el pasado. Yudkowsky rechazó la idea de fusionarse con la IA, comparándola con "intentar fusionarse con tu horno tostador".
Sandberg y Vita-More argumentaron que, a medida que los sistemas de IA se vuelvan más capaces, los humanos necesitarán integrarse o fusionarse más estrechamente con ellos para poder hacer frente mejor a un mundo post-AGI.
"Esta discusión es una realidad sobre quiénes somos como seres humanos", dijo Vita-More.

