El presidente de Microsoft, Brad Smith, añadió su nombre esta semana a la creciente lista de gigantes de la industria tecnológica que dan la voz de alarma y piden a los gobiernos que regulen la inteligencia artificial (IA).

"El gobierno tiene que actuar con mayor rapidez", declaró Smith durante una mesa redonda celebrada el jueves por la mañana en Washington D.C. en la que participaron responsables políticos, según informó The New York Times.

El llamamiento de Microsoft a la regulación se produce en un momento en que el rápido desarrollo de la inteligencia artificial —específicamente de las herramientas de IA generativa— está siendo objeto de un mayor escrutinio por parte de los reguladores.

AD

La IA Generativa se refiere a un sistema de inteligencia artificial capaz de generar texto, imágenes u otros medios en respuesta a instrucciones proporcionadas por el usuario. Algunos ejemplos destacados son la plataforma generadora de imágenes Midjourney, Bard de Google y ChatGPT de OpenAI.

El llamamiento a la regulación de la IA se ha hecho más fuerte desde el lanzamiento público de ChatGPT en noviembre. Figuras destacadas, como Warren Buffett, Elon Musk e incluso el CEO de OpenAI, Sam Altman, han hablado de los peligros potenciales de la tecnología. Un factor clave en la actual huelga de guionistas de la WGA es el temor a que la IA pueda utilizarse para sustituir a los guionistas humanos, un sentimiento compartido por los artistas de videojuegos ahora que los estudios de juegos están estudiando la tecnología.

Smith se mostró partidario de exigir a los desarrolladores que obtengan una licencia antes de desplegar proyectos avanzados de IA, y sugirió que lo que denominó IA de "alto riesgo" sólo debería operar en centros de datos de IA con licencia.

El ejecutivo de Microsoft también pidió a las empresas que asumieran la responsabilidad de gestionar la tecnología que ha tomado al mundo por asalto, sugiriendo que el impulso no recae únicamente en las gobernaciones para gestionar el potencial impacto social de la IA.

AD

"Eso significa que notifiques al gobierno cuando empieces a hacer pruebas", dijo Smith. "Incluso cuando se obtiene la licencia para su despliegue, tienes la obligación de seguir controlándola e informar al gobierno si surgen problemas inesperados".

A pesar de las preocupaciones, Microsoft ha apostado fuerte por la IA, invirtiendo al parecer más de 13.000 millones de dólares en OpenAI, desarrollador de ChatGPT, e integrando el popular chatbot en su navegador web Bing.

"Estamos comprometidos y decididos como empresa a desarrollar y desplegar la IA de forma segura y responsable", escribió Smith en un post sobre la gobernanza de la IA. "Sin embargo, también reconocemos que las barandillas necesarias para la IA requieren un sentido de la responsabilidad ampliamente compartido y no deben dejarse sólo en manos de las empresas tecnológicas."

En marzo, Microsoft lanzó su Security Copilot, la primera herramienta especializada de su fila que utiliza IA para ayudar a los profesionales de TI y ciberseguridad a identificar ciberamenazas utilizando grandes conjuntos de datos.

Los comentarios de Smith se hacen eco de los realizados por el CEO de OpenAI, Sam Altman, durante una audiencia ante el Comité Judicial del Senado de EE.UU. la semana pasada. Altman sugirió crear una agencia federal para regular y establecer normas para el desarrollo de la IA.

"Yo crearía una nueva agencia que concediera licencias a cualquier esfuerzo que superara una determinada escala de capacidades, y que pudiera tomar esa licencia y garantizar el cumplimiento de las normas de seguridad", dijo Altman.

Microsoft no respondió inmediatamente a la solicitud de comentarios de Decrypt.

Stay on top of crypto news, get daily updates in your inbox.