4 min lectura
El primer ministro del Reino Unido Rishi Sunak ha anunciado un plan audaz para que el país se convierta en un epicentro global para la industria de la Inteligencia Artificial (IA). Como parte de este plan, el gobierno del Reino Unido planea lanzar importantes becas de IA e invertir más de $100 millones en un Grupo de Trabajo de IA.
Una mezcla de investigación, educación y colaboración internacional es el corazón de esta visión, un momento potencialmente seminal para el panorama tecnológico del Reino Unido.
Sunak dijo que reconoce las preocupaciones que muchos tienen con respecto a la tecnología de IA. Después de todo, no todos los días un grupo de científicos reconocidos dice que el mundo puede llegar a su fin. Para abordar esto, Sunak enfatizó su compromiso de liderar la investigación de seguridad dentro de las fronteras del Reino Unido, equilibrando su entusiasmo por el futuro con un reconocimiento de los riesgos que puede traer.
"Entiendo que la gente esté preocupada por la IA. Es por eso que vamos a hacer investigación de seguridad de vanguardia aquí en el Reino Unido", dijo Sunak en el anuncio. La idea es "asegurarse de que donde y cuando se utilice la IA en el Reino Unido, se haga de manera segura y responsable".
Un aspecto del plan del gobierno que ha despertado interés es su colaboración con los gigantes de la IA: Google's DeepMind (Bard, PaLM-2), OpenAI (ChatGPT, GPT-4) y Anthropic (Claude AI, Constitutional AI). Estas empresas se han comprometido a dar al gobierno del Reino Unido acceso temprano o prioritario a sus modelos de IA para fines de investigación y seguridad.
Sin embargo, la naturaleza de esta colaboración ha levantado algunas dudas.
Los posibles peligros de la supervisión gubernamental excesiva de los modelos de IA están empezando a ser evidentes. Por un lado, los sesgos inherentes en estos modelos de IA podrían potencialmente institucionalizarse. Además, la dinámica de poder entre las empresas de IA y los gobiernos es motivo de preocupación.
Ya se está trabajando en una Cumbre de Seguridad de IA, un evento comparado con las conferencias climáticas COP, dijo. Sin embargo, el entusiasmo recién descubierto del gobierno por la seguridad de la IA marca un cambio notable en su postura anterior.
Hasta hace poco, el libro blanco o la hoja de ruta del gobierno reflejaba un enfoque pro-innovación para la regulación de la IA que minimizaba las preocupaciones de seguridad. Este repentino cambio de tono, tras reuniones con los grandes de la industria de la IA, ha planteado preguntas sobre la susceptibilidad del gobierno a la influencia de la industria.
Paralelamente a estos desarrollos, el CEO de OpenAI, Sam Altman, está de gira internacional, con el objetivo de fortalecer los lazos con los reguladores de todo el mundo. Esto también ha provocado un debate sobre su interés en liderar los esfuerzos regulatorios en todo el mundo, al mismo tiempo que amenaza con abandonar las jurisdicciones que quieren regular la industria.
Un discurso diverso que involucre a investigadores independientes, grupos de la sociedad civil y comunidades vulnerables es esencial para lograr una perspectiva completa sobre la seguridad de la inteligencia artificial. Después de todo, mientras que estos "Titanes de la IA" tienen las llaves del futuro, son las personas comunes y corrientes quienes vivirán en él.
Decrypt-a-cookie
This website or its third-party tools use cookies. Cookie policy By clicking the accept button, you agree to the use of cookies.