En Resumen

  • Reino Unido busca convertirse en epicentro global de la IA con becas y una inversión de más de $100 millones.
  • El primer ministro Rishi Sunak enfatiza la investigación de seguridad para utilizar la IA de manera segura y responsable.
  • La colaboración del gobierno con empresas de IA como Google's DeepMind y OpenAI genera dudas sobre la influencia de la industria en la regulación.

El primer ministro del Reino Unido Rishi Sunak ha anunciado un plan audaz para que el país se convierta en un epicentro global para la industria de la Inteligencia Artificial (IA). Como parte de este plan, el gobierno del Reino Unido planea lanzar importantes becas de IA e invertir más de $100 millones en un Grupo de Trabajo de IA.

Una mezcla de investigación, educación y colaboración internacional es el corazón de esta visión, un momento potencialmente seminal para el panorama tecnológico del Reino Unido.

Reino Unido enfatizara la investigación de seguridad sobre la IA

Sunak dijo que reconoce las preocupaciones que muchos tienen con respecto a la tecnología de IA. Después de todo, no todos los días un grupo de científicos reconocidos dice que el mundo puede llegar a su fin. Para abordar esto, Sunak enfatizó su compromiso de liderar la investigación de seguridad dentro de las fronteras del Reino Unido, equilibrando su entusiasmo por el futuro con un reconocimiento de los riesgos que puede traer.

"Entiendo que la gente esté preocupada por la IA. Es por eso que vamos a hacer investigación de seguridad de vanguardia aquí en el Reino Unido", dijo Sunak en el anuncio. La idea es "asegurarse de que donde y cuando se utilice la IA en el Reino Unido, se haga de manera segura y responsable".

Un aspecto del plan del gobierno que ha despertado interés es su colaboración con los gigantes de la IA: Google's DeepMind (Bard, PaLM-2), OpenAI (ChatGPT, GPT-4) y Anthropic (Claude AI, Constitutional AI). Estas empresas se han comprometido a dar al gobierno del Reino Unido acceso temprano o prioritario a sus modelos de IA para fines de investigación y seguridad.

Sin embargo, la naturaleza de esta colaboración ha levantado algunas dudas.

Los posibles peligros de la supervisión gubernamental excesiva de los modelos de IA están empezando a ser evidentes. Por un lado, los sesgos inherentes en estos modelos de IA podrían potencialmente institucionalizarse. Además, la dinámica de poder entre las empresas de IA y los gobiernos es motivo de preocupación.

Ya se está trabajando en una Cumbre de Seguridad de IA, un evento comparado con las conferencias climáticas COP, dijo. Sin embargo, el entusiasmo recién descubierto del gobierno por la seguridad de la IA marca un cambio notable en su postura anterior.

Hasta hace poco, el libro blanco o la hoja de ruta del gobierno reflejaba un enfoque pro-innovación para la regulación de la IA que minimizaba las preocupaciones de seguridad. Este repentino cambio de tono, tras reuniones con los grandes de la industria de la IA, ha planteado preguntas sobre la susceptibilidad del gobierno a la influencia de la industria.

Paralelamente a estos desarrollos, el CEO de OpenAI, Sam Altman, está de gira internacional, con el objetivo de fortalecer los lazos con los reguladores de todo el mundo. Esto también ha provocado un debate sobre su interés en liderar los esfuerzos regulatorios en todo el mundo, al mismo tiempo que amenaza con abandonar las jurisdicciones que quieren regular la industria.

Un discurso diverso que involucre a investigadores independientes, grupos de la sociedad civil y comunidades vulnerables es esencial para lograr una perspectiva completa sobre la seguridad de la inteligencia artificial. Después de todo, mientras que estos "Titanes de la IA" tienen las llaves del futuro, son las personas comunes y corrientes quienes vivirán en él.

Daily Debrief Newsletter

Start every day with the top news stories right now, plus original features, a podcast, videos and more.