Prepárense: La superinteligencia artificial está cerca.

Una publicación de blog coescrita por el CEO de OpenAI, Sam Altman, el presidente de OpenAI, Greg Brockman, y el científico jefe de OpenAI, Ilya Sutskever, advierte que el desarrollo de la inteligencia artificial necesita una regulación estricta para evitar escenarios potencialmente catastróficos.

"Ahora es un buen momento para comenzar a pensar en la gobernanza de una superinteligencia", dijo Altman, reconociendo que los futuros sistemas de IA podrían superar significativamente a la AGI en términos de capacidad. "Dada la situación tal como la vemos ahora, es concebible que en los próximos diez años, los sistemas de IA superen los niveles de habilidad experta en la mayoría de los dominios y lleven a cabo tanta actividad productiva como una de las corporaciones más grandes de hoy en día".

Reflejando las preocupaciones que Altman planteó en su reciente testimonio ante el Congreso, el trío delineó tres pilares que consideraron cruciales para la planificación estratégica futura.

El "punto de partida" para controlar los desarrollos en IA

En primer lugar, OpenAI cree que debe haber un equilibrio entre el control y la innovación, y abogó por un acuerdo social "que nos permita mantener la seguridad y ayudar a la integración suave de estos sistemas con la sociedad".

A continuación, defendieron la idea de una "autoridad internacional" encargada de inspecciones del sistema, cumplimiento de auditorías, pruebas de cumplimiento de normas de seguridad y restricciones de implementación y seguridad. Haciendo paralelismos con la Agencia Internacional de Energía Atómica, sugirieron cómo podría ser un organismo regulador mundial de la IA.

Por último, enfatizaron la necesidad de tener la "capacidad técnica" para mantener el control sobre la superinteligencia y mantenerla "segura". Lo que esto implica sigue siendo vago, incluso para OpenAI, pero la publicación advirtió contra medidas regulatorias onerosas como licencias y auditorías para la tecnología que no cumpla con el estándar de superinteligencia.

En esencia, la idea es mantener la superinteligencia alineada con las intenciones de sus entrenadores, evitando un "escenario foom" - una explosión rápida e incontrolable en las capacidades de la IA que supera el control humano.

OpenAI también advierte del impacto potencialmente catastrófico que el desarrollo no controlado de modelos de IA podría tener en las sociedades futuras. Otros expertos en el campo ya han planteado preocupaciones similares, desde el padrino de la IA hasta los fundadores de empresas de IA como Stability AI e incluso trabajadores anteriores de OpenAI involucrados en el entrenamiento del GPT LLM en el pasado. Este llamado urgente a un enfoque proactivo hacia la gobernanza y regulación de la IA ha llamado la atención de los reguladores de todo el mundo.

El desafío de una superinteligencia "segura"

OpenAI cree que una vez que se aborden estos puntos, el potencial de la IA se podrá explotar más libremente para el bien: "Esta tecnología puede mejorar nuestras sociedades, y la capacidad creativa de todos para usar estas nuevas herramientas seguramente nos asombrará", dijeron.

Los autores también explicaron que el espacio está creciendo actualmente a un ritmo acelerado, y eso no va a cambiar. "Detenerlo requeriría algo así como un régimen de vigilancia global, e incluso eso no está garantizado que funcione", dice el blog.

A pesar de estos desafíos, el liderazgo de OpenAI sigue comprometido a explorar la pregunta, "¿Cómo podemos asegurarnos de que se logre la capacidad técnica para mantener una superinteligencia segura?" El mundo no tiene una respuesta en este momento, pero definitivamente necesita una, una que ChatGPT no puede proporcionar.

Daily Debrief Newsletter

Start every day with the top news stories right now, plus original features, a podcast, videos and more.