OpenAI, Google y Microsoft Prometen a la Casa Blanca Mantener la IA Segura

Líderes de la industria se comprometen con el desarrollo seguro, confiable y transparente de la inteligencia artificial en acuerdo con la administración de Biden.

Por Jason Nelson

3 min lectura

Las principales empresas de IA, incluyendo OpenAI, Google, Microsoft y OpenAI, se han comprometido a desarrollar tecnología de IA segura, confiable y transparente, según informó la Casa Blanca el viernes.

"Las empresas que están desarrollando estas tecnologías emergentes tienen la responsabilidad de garantizar que sus productos sean seguros", dijo la Administración Biden, agregando que el objetivo es aprovechar al máximo el potencial de la IA y fomentar los más altos estándares.

La Casa Blanca también informó que otras empresas como Amazon, Anthropic, Meta e Inflection, se comprometieron con mejorar la seguridad de la IA.

"Ninguno de nosotros puede hacer bien la IA por sí solo", dijo Kent Walker, Presidente de Asuntos Globales de Google. "Nos complace unirnos a otras empresas líderes en IA al respaldar estos compromisos y nos comprometemos a seguir trabajando juntos compartiendo información y mejores prácticas".

Algunos de los compromisos incluyen pruebas de seguridad previas al lanzamiento de sistemas de IA, compartir mejores prácticas para la seguridad de la IA, invertir en ciberseguridad y salvaguardias contra amenazas internas, y facilitar la presentación de informes de terceros sobre vulnerabilidades del sistema de IA.

"Los responsables políticos de todo el mundo están considerando nuevas leyes para sistemas de IA altamente capaces", dijo Anna Makanju, Vicepresidenta de Asuntos Globales de OpenAI, en un comunicado. "Los compromisos de hoy contribuyen con prácticas específicas y concretas a esa discusión en curso".

Los legisladores de Estados Unidos presentaron un proyecto de ley bipartidista en junio que busca establecer una comisión sobre IA y abordar las preguntas planteadas por la industria en rápido crecimiento.

La Administración Biden también dice que está trabajando con socios internacionales, incluidos Australia, Canadá, Francia, Alemania, India, Israel, Italia, Japón, Nigeria, Filipinas y el Reino Unido, para establecer un marco global.

"Al respaldar todos los compromisos voluntarios presentados por el presidente Biden y comprometerse de manera independiente con varios otros que respaldan estos objetivos críticos, Microsoft está ampliando sus prácticas de IA segura y responsable, trabajando junto a otros líderes de la industria", dijo el presidente de Microsoft, Brad Smith Smith.

Otros líderes globales, incluido el Secretario General de las Naciones Unidas, ya han dado la voz de alarma sobre la inteligencia artificial generativa y la tecnología deepfake y su posible mal uso en zonas de conflicto.

En mayo, la administración de Biden se reunió con líderes de inteligencia artificial para sentar las bases del desarrollo ético de la IA. La administración también anunció una inversión de $140 millones por parte de la Fundación Nacional de Ciencias para la investigación y desarrollo de la IA.

"Estos compromisos, que las empresas han decidido asumir de inmediato, subrayan tres principios que deben ser fundamentales para el futuro de la IA: seguridad, protección y confianza, y marcan un paso crítico hacia el desarrollo de una IA responsable", dijo la administración.

Get crypto news straight to your inbox--

sign up for the Decrypt Daily below. (It’s free).

Noticias recomendados