En Resumen
- Sam Altman, Dario Amodei y Elon Musk han predicho la AGI para 2026-2030, pero expertos advierten que el término carece de definición clara.
- Ben Goertzel, quien popularizó el concepto, señaló que los modelos actuales no son AGI pues solo comprimen internet sin generar conocimiento genuinamente nuevo.
- Investigadores como Bourgon indicaron que la prioridad real no es la etiqueta, sino entender las capacidades concretas que estos sistemas desarrollan.
La inteligencia artificial general, o AGI por sus siglas en inglés, es uno de los hitos más citados en la industria de la IA. Los ejecutivos tecnológicos la predicen, los inversores destinan miles de millones a financiar su investigación, y los críticos advierten sobre sus riesgos una vez que llegue.
Sin embargo, sigue sin estar claro que es exactamente es la AGI, y los investigadores aún no se ponen de acuerdo sobre qué cuenta como "inteligencia general", cuándo podría llegar, ni cómo alguien podría reconocerla cuando lo haga.
"Hay un montón de definiciones distintas", dijo Malo Bourgon, CEO del Machine Intelligence Research Institute, a Decrypt. "Cuando empezamos a hablar de si este sistema es AGI, si aquel sistema es AGI, qué califica exactamente como AGI según qué definición, creo que eso es bastante difícil de determinar".
Figuras prominentes como el CEO de OpenAI, Sam Altman, el CEO de Anthropic, Dario Amodei, y el CEO de xAI, Elon Musk, han expresado opiniones y hecho predicciones sobre la llegada de la AGI.
"Creo que alcanzaremos la AGI en 2026", afirmó Musk en diciembre durante una entrevista con el presidente ejecutivo de la Fundación XPRIZE, Peter Diamandis. "Estoy seguro de que para 2030, la IA superará la inteligencia de todos los humanos combinados".
A diferencia de la IA generativa que la mayoría de las personas conoce gracias a ChatGPT, la inteligencia artificial general, o AGI, generalmente se refiere a un sistema de IA capaz de comprender, aprender y aplicar conocimiento en múltiples tareas a un nivel similar al humano, en lugar de realizar una única función especializada. El concepto se remonta a los primeros días de la investigación en IA en la década de 1950.
Desde principios de la década de 2000, investigadores como Ben Goertzel, Shane Legg y Peter Voss popularizaron el término "inteligencia artificial general" para distinguir el objetivo original de una IA con capacidades amplias a nivel humano de los sistemas de IA cada vez más exitosos, pero especializados, que se desarrollaban en laboratorios de investigación y universidades.
Sin embargo, Bourgon señaló que alcanzar la "inteligencia a nivel humano" no es una meta universal.
"Hay muchas razones relacionadas con nuestra historia evolutiva, la estructura de nuestro cerebro, la lentitud de las neuronas y los límites de nuestra memoria de trabajo y la velocidad a la que opera nuestro cerebro, que nos llevan a esperar que si podemos diseñar sistemas de IA con esta propiedad que nosotros tenemos, probablemente haya un margen enorme por encima de nosotros", agregó.
La AGI ya está aquí, dicen algunos
Los recientes avances en large language models y potentes sistemas de IA como Gemini, ChatGPT, Grok y Claude, capaces de redactar ensayos, crear imágenes, generar código y responder preguntas complejas, han llevado a muchos a argumentar que la AGI ya ha sido alcanzada. Sin embargo, lo que les falta, señaló Bourgon, es autonomía.
"En la mayoría de las definiciones de AGI está implícita la idea de autonomía", afirmó Bourgon. "Que estos sistemas no se comporten necesariamente solo como herramientas o chatbots, sino que tengan una naturaleza agéntica que les permita realizar tareas en una amplia variedad de entornos con un alto grado de autonomía".
Ben Goertzel, CEO de SingularityNET y uno de los responsables de popularizar el término AGI, señaló que esa interpretación estira demasiado el concepto.
"El término se ha vuelto bastante confuso en los medios", dijo Goertzel a Decrypt. "A los CEOs tecnológicos les resulta conveniente decir: 'Oye, ya lanzamos la AGI', y la gente le da un enfoque sensacionalista".
En teoría, explicó Goertzel, la AGI se refiere a sistemas de IA capaces de aprender y realizar una amplia gama de tareas más allá de aquellas para las que fueron entrenados explícitamente. Los modelos actuales, dijo, son poderosos, pero fundamentalmente distintos de la inteligencia general.
"No llegan ahí aprendiendo a hacer todo", señaló. "Llegan ahí porque tienen todo internet comprimido en su base de conocimientos".
Mientras los desarrolladores de IA invierten miles de millones de dólares en la construcción de centros de datos para suministrar cada vez más capacidad de cómputo a modelos más potentes, una verdadera inteligencia general necesitaría generalizar y generar perspectivas genuinamente novedosas que vayan más allá de simplemente reorganizar sus datos de entrenamiento, explicó.
"Si tomaran los sistemas actuales de redes neuronales profundas y los entrenaran con música hasta el año 1900, nunca inventarían el hip hop ni el grindcore", afirmó Goertzel.
Goertzel argumentó que la transición hacia la AGI probablemente no se manifestará como un punto de quiebre único y definido.
"No tiene que haber un límite completamente nítido entre la AGI y la pre-AGI", dijo, comparándolo con las zonas grises de la biología en torno a los virus y retrovirus. Aún sabemos que un perro está vivo y una piedra no, añadió, aunque algunos casos límite sean "difusos", como ocurre con los virus.
Kyle Chan, investigador de Brookings que estudia la política global de IA, señaló que el debate se ha ampliado para abarcar varios escenarios distintos.
Desarrollo en el extranjero
"Hay toda una gama de lo que queremos decir con AGI", dijo Chan a Decrypt. "En un extremo está la idea de la automejora recursiva y una explosión de inteligencia, y en el otro hay una versión más 'mundana': una IA capaz de hacer muchas cosas que los humanos pueden hacer, o una IA como tecnología común, igual que internet o las computadoras".
Mientras los laboratorios de IA estadounidenses debaten las implicaciones existenciales de la AGI, señaló Chan, la conversación en China luce muy diferente.
"La AGI no es algo tan importante en China, especialmente para los responsables de políticas, la comunidad de IA en general y la industria tecnológica en general", afirmó. "La mayoría está enfocada en intentar ganar dinero con esto, y especialmente en el ámbito físico, que es un área donde creo que China y muchas de sus empresas tecnológicas sienten que tienen ventaja sobre EE.UU., donde pueden desarrollar robótica o sistemas autónomos, drones y cualquier cosa impulsada por IA, porque tienen las cadenas de suministro de hardware que EE.UU. no tiene".
Chan reconoció que, si bien los desarrolladores de IA en China no están tan enfocados en la AGI como sus contrapartes estadounidenses, el tema sigue en su radar.
"Algunos de los fundadores de IA chinos sí hablan de AGI, e incluso algunos mencionan algo parecido a una ASI", señaló. "Pero en general, la AGI realmente no es algo tan importante en China".
Las predicciones sobre cuándo podría llegar la AGI varían ampliamente. Para los investigadores que estudian la tecnología, la etiqueta en sí misma puede importar menos que lo que los sistemas son capaces de hacer.
"¿Cuáles son los efectos y las capacidades de estos sistemas?", dijo Bourgon. "Esa es la mentalidad en la que queremos estar ahora".

