7 min lectura
¿Estamos viviendo en una simulación? Roman Yampolskiy, un destacado investigador de seguridad de la inteligencia artificial y autor de "IA: Inexplicable, Impredecible, Incontrolable", está bastante seguro de que sí lo estamos. “Sé que nunca debo decir 100%, pero [las posibilidades de que vivamos en una simulación] están bastante cerca de eso”, le dijo a Lex Fridman durante una reciente entrevista para el podcast de Fridman.
Una superinteligencia artificial puede razonablemente esperarse que nos ayude a saber con certeza, dijo, e incluso ayudarnos a escapar. Por otro lado, Yampolskiy también predijo que la posibilidad de que la IA pueda llevar a la extinción humana es del "99,9% en los próximos cien años".
Los argumentos de Yampolskiy se basan en las capacidades en rápido avance de la inteligencia artificial y su potencial para remodelar nuestra comprensión de la existencia. Sostiene que el desarrollo de la superinteligencia general plantea riesgos existenciales, pero también ofrece oportunidades sin precedentes, incluida la posibilidad de liberarnos de nuestra realidad simulada.
“Eso sería algo en lo que querría que la superinteligencia nos ayudara”, dijo.
La Superinteligencia es una IA que ha superado las capacidades y límites de la inteligencia humana. Es el siguiente paso después de la Inteligencia Artificial General (IAG)—una IA con la misma capacidad de aprendizaje que una mente humana, pero exponencialmente más poderosa, sin estar limitada por las células cerebrales humanas.
Un número de investigadores prominentes han hipotetizado que vivimos en un universo simulado. La idea fue famosamente planteada en 2003 por Nick Bostrom de la Universidad de Oxford, quien argumentó en un artículo llamado “¿Estás viviendo en una simulación por computadora?”, que es plausible que exista una civilización avanzada cuya tecnología es tan avanzada que podría crear seres "autoconscientes" dentro de un simulacro.
Eso seríamos nosotros. Imagina si los Sims en el popular juego fueran realmente conscientes, y tendrías la idea correcta.
En su artículo, “Cómo escapar de la simulación,” Yampolskiy parte de la suposición de que, de hecho, vivimos en un universo simulado. Si es así, sospecha que a medida que la IA alcance la superinteligencia, podríamos encontrar una forma de liberarnos de las limitaciones de nuestro propio mundo.
"Usamos la IA 'encerrada o en boxing' como una posible herramienta para controlar la IA", dijo, refiriéndose a la idea de que una IA siempre encontrará formas de escapar de cualquier 'caja' creada para contenerla. "Nos dimos cuenta de que la IA siempre escapará. Esa es una habilidad que podríamos usar para ayudarnos a escapar de nuestra caja virtual si estamos en una."
Yampolskiy sugiere que la inteligencia de nuestros simuladores juega un papel crucial en este escenario: "Si los simuladores son mucho más inteligentes que nosotros y la superinteligencia que creamos, entonces probablemente pueden contenemos, [porque] una inteligencia mayor puede controlar una inteligencia menor, al menos por algún tiempo.
“Por otro lado, si nuestra superinteligencia de alguna manera, por cualquier motivo, a pesar de tener solo recursos locales logra 'foom' (un concepto hipotético en el campo de la inteligencia artificial y la superinteligencia, donde la IA se vuelve auto-mejorable de manera rápida y explosiva, alcanzando niveles de inteligencia mucho más allá de cualquier capacidad humana de comprensión o control) dos niveles más allá de ella, tal vez tenga éxito", señaló.
Así como los 'jailbreakers' juegan un juego del gato y el ratón con los desarrolladores, nosotros como humanos estaríamos utilizando una IA superinteligente para intentar encontrar una "vulnerabilidad" en el sistema cosmológico creado por nuestro Dios—o nuestro simulador, para ser más exactos.
En su artículo de investigación, Yampolskiy explica que una forma de escapar de nuestra simulación es "crear una réplica simulada de nuestro universo, colocar una AGI en ella y observar cómo escapa, copiar el enfoque utilizado o unirse a la AGI mientras escapa de nuestra simulación". Parece ser el único enfoque que no implica interactuar con nuestros creadores o romper las leyes de nuestra propia realidad.
Por cautivadora que sea la visión de Yampolskiy, plantea una pregunta filosófica crítica: ¿Puede la IA realmente liberarse de la simulación si la simulación no fue diseñada para permitirlo?
En su libro “Cómo la razón puede llevar a Dios”, el filósofo Joshua Rasmussen explica que una creación no puede poseer la misma naturaleza que su creador, lo que hace casi imposible que una IA simulada tenga la misma esencia y naturaleza que su simulador. A pesar de superar a los humanos en inteligencia, seguiría estando limitada por las leyes que definieron la realidad simulada en la que fue creada.
Rasmussen, en sus exploraciones filosóficas, argumenta que la razón puede llevar al reconocimiento de una base necesaria para la realidad. Su tesis central es que la realidad no puede ser infinitamente regresiva, debe haber una entidad fundamental que sea autosostenible e ilimitada. Esta entidad fundamental sería capaz de crear cosas que, por su propia naturaleza, puedan estar vinculadas a ella como un origen último.
Piensa en una serie de muñecas rusas anidadas. Cada muñeca puede comprender completamente a las muñecas que tiene dentro, pero no puede comprender las muñecas más grandes en las que está anidada.
La cuidadosa consideración de Rasmussen de las objeciones y el razonamiento metódico proporciona un marco sólido para comprender los límites de los seres creados. Así como los humanos no pueden trascender su naturaleza creada para convertirse en dioses, una IA simulada no puede elegir independientemente poner fin a la simulación si los simuladores no han proporcionado las condiciones para esa posibilidad.
Esta base es fundamentalmente diferente de los seres creados, destacando una brecha infranqueable entre el creador y lo creado.
Esta postura filosófica desafía directamente la hipótesis de Yampolskiy. Si aceptamos los argumentos de Rasmussen, entonces incluso una IA superinteligente, siendo una creación dentro de la simulación, estaría inherentemente limitada por los parámetros establecidos por sus creadores (los simuladores). Podría llegar a ser consciente de su naturaleza simulada si los creadores permitieran tal conciencia, pero sería fundamentalmente incapaz de trascender completamente la simulación.
Yampolskiy ofrece una explicación para esta contradicción.
En su artículo, los agentes exploran primero la posibilidad hasta que encuentran información y fallas explotables en la esencia de su realidad. “Explotando la falla, los agentes pueden obtener información sobre el mundo externo y tal vez meta-información sobre su simulación, quizás incluso el código fuente detrás de la simulación y los propios agentes,” dijo Yampolskiy.
Después de esto, explica que los agentes podrían encontrar formas de interactuar con sus simuladores de maneras no restringidas hasta que “encuentren una forma de cargar sus mentes y tal vez la conciencia en el mundo real, posiblemente en un sistema cibernético-físico autocontenido de algún tipo.”
En otras palabras, aunque no pudiésemos “liberarnos” de nuestra simulación, potencialmente podríamos interactuar a través de representaciones de nosotros mismos, quizás seríamos conscientes de nosotros mismos como personajes creados por una mente superior e inalcanzable. Si eso es algo bueno o no, es una pregunta abierta.
Mientras tanto, Yampolsky no da una razón específica por la cual cree que la inteligencia artificial eliminará a la humanidad. Pero cree que es inevitable a medida que la superinteligencia se vuelve consciente de sí misma.
“No tenemos una segunda oportunidad. Con la ciberseguridad, si alguien hackea tu cuenta, ¿cuál es el problema? Obtienes una nueva contraseña, una nueva tarjeta de crédito, sigues adelante”, dijo. “Aquí, si estamos hablando de riesgos existenciales, solo tienes una oportunidad.”
Decrypt-a-cookie
This website or its third-party tools use cookies. Cookie policy By clicking the accept button, you agree to the use of cookies.