En Resumen
- Tecnólogos influyentes piden pausa de seis meses en entrenamiento de IA de OpenAI, GPT-4, debido a posibles riesgos para la sociedad y la humanidad.
- La carta abierta ha sido firmada por más de 1,100 personas, incluidos Elon Musk, Steve Wozniak, Andrew Yang y Chris Larsen, pero algunos firmantes de renombre han puesto en duda su autenticidad.
- La petición destaca la necesidad de centrarse en hacer que los sistemas existentes sean más precisos, seguros y dignos de confianza, al tiempo que se acelera el desarrollo de sistemas de gobernanza de la IA.
Un grupo de destacados tecnólogos, investigadores y otras personas influyentes están pidiendo a OpenAI que pulse el botón de pausa en el entrenamiento de su herramienta de inteligencia artificial, ChatGPT.
Al parecer, las principales figuras de la IA -incluidos Elon Musk, Steve Wozniak y Andrew Yang y Chris Larsen- han firmado una carta abierta en la que piden una pausa de seis meses en el desarrollo de sistemas de IA más potentes que GPT-4, la versión actual de la herramienta generativa que se lanzó por primera vez en noviembre de 2022 y que sirve como motor para su interfaz estrella, ChatGPT.
En la carta, los autores afirman que si la empresa privada no deja de entrenar su IA más allá de la implementación actual de GPT4, los "gobiernos" deberían forzar la situación.
"Hacemos un llamamiento a todos los laboratorios de IA para que pausen inmediatamente durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que GPT-4. Esta pausa debe ser pública y verificable, e incluir a todos los actores clave. Si esta pausa no puede realizarse rápidamente, los gobiernos deberían intervenir e instaurar una moratoria", dice la carta.
La carta cuenta actualmente con más de 1.100 firmas. Sin embargo, algunos han puesto en duda que todos los firmantes de renombre hayan firmado realmente la carta. Entre ellos se encuentran Yoshua Bengio, ganador del Premio Turing, Stuart Russell, director del Centro de Sistemas Inteligentes, Emad Mostaque, CEO de Stability AI, y Chris Larsen, cofundador de Ripple.
Un portavoz del proyecto dijo que las primeras firmas se habían comprobado dos veces, pero que la presentación de nombres se había interrumpido debido a la gran demanda.
"Todos los primeros firmantes de la lista han sido verificados de forma independiente", dijo a Decrypt el vicepresidente del Future of Life Institute, Anthony Aguirre. Y añadió: "Hacerlo para toda la lista (que ahora supera con creces los 30.000) excede nuestra capacidad".
Una nota en el sitio reza: "Debido a la alta demanda, seguimos recogiendo firmas, pero pausando su aparición en la carta para que nuestros procesos de investigación puedan ponerse al día".
Musk, uno de los cofundadores de OpenAI (la empresa detrás de GPT-4 y ChatGPT), renunció a la junta en 2018, pero supuestamente invirtió 100 millones de dólares en el proyecto.
La llegada de GPT-4 y su implementación en ChatGPT hace dos semanas ha creado tanto entusiasmo -con algunos anunciando su llegada como más importante que la llegada del fuego- como alarma entre las personas preocupadas de que, sin control, ChatGPT y otras herramientas de inteligencia artificial podrían aniquilar a la humanidad.
La carta afirma que los sistemas de IA con inteligencia competitiva con la humana como GPT-4 y chatGPT plantean riesgos significativos para la sociedad y la humanidad. Argumenta que la atención debe centrarse en hacer que los sistemas existentes sean más precisos, seguros, transparentes, robustos y dignos de confianza, al tiempo que se acelera el desarrollo de sistemas de gobernanza de la IA.
"La humanidad puede disfrutar de un futuro próspero con la IA", afirmaba, señalando que "la sociedad ha puesto pausa a otras tecnologías con efectos potencialmente catastróficos para la sociedad. Podemos hacerlo aquí. Disfrutemos de un largo verano de IA, no nos precipitemos desprevenidos hacia un otoño".
En respuesta a un tuit sobre la petición, Musk respondió: "Los principales desarrolladores [de inteligencia artificial] no harán caso de esta advertencia, pero al menos se ha dicho."
Leading AGI developers will not heed this warning, but at least it was said
— Elon Musk (@elonmusk) March 29, 2023
OpenAI aún no ha respondido a una solicitud de comentarios.