En Resumen
- AWS anunció el despliegue de 1 millón de GPUs de Nvidia hasta finales de 2027 para construir sistemas de IA agéntica.
- La inferencia representa ya dos tercios del cómputo de IA, frente a un tercio en 2023, según ZenGen Labs.
- El mercado de chips de inferencia superaría los $50.000 millones para 2026, de acuerdo con estimaciones de Deloitte.
Nvidia suministrará a Amazon Web Services un volumen masivo de GPUs hasta 2027, mientras el proveedor de nube intensifica su infraestructura de IA para satisfacer la creciente demanda.
AWS anunció a principios de esta semana que planea desplegar alrededor de 1 millón de GPUs de Nvidia como parte de la expansión de su infraestructura de IA. Un ejecutivo de Nvidia confirmó el jueves ante Reuters que el despliegue se extenderá hasta finales de 2027.
Con inicio este año en las regiones globales de nube de AWS, el proceso se implementará junto con una mayor colaboración con Nvidia en redes y otra infraestructura para construir sistemas "capaces de razonar, planificar y actuar de forma autónoma en flujos de trabajo complejos", señaló AWS, haciendo referencia a su trabajo en sistemas de IA agéntica.
AWS continúa desarrollando chips de IA tanto para entrenamiento como para inferencia. La colaboración sugiere que la demanda podría estar redistribuyéndose a lo largo del stack de IA, mientras una proporción creciente de la actividad parece estar vinculada a la ejecución de modelos en servicios en vivo.
El acuerdo llega en medio de una causa judicial impulsada por fiscales estadounidenses que alegan que chips de Nvidia fueron introducidos de contrabando a China, lo que coloca el suministro global y los controles de la empresa bajo un nuevo escrutinio.
Desde 2022, los chips más avanzados de Nvidia han sido estrictamente regulados como parte de una estrategia más amplia de Estados Unidos para limitar el avance de China en computación avanzada e IA.
El desarrollo del jueves, más cercano a casa, podría ampliar aún más esa brecha.
Cambios de ritmo
Analistas afirman que la estructura del acuerdo ofrece pistas sobre dónde se está acumulando la demanda y cómo la infraestructura subyacente está cambiando a un ritmo cada vez más acelerado.
"Nvidia se está convirtiendo en la capa de infraestructura por debajo de los proveedores de nube, no solo en un proveedor de chips para ellos", señaló Dermot McGrath, cofundador del estudio de estrategia y crecimiento ZenGen Labs, a Decrypt.
Los chips incluidos en el acuerdo están orientados a ejecutar modelos de IA a escala, con foco en reducir el costo de uso, explicó McGrath, y destacó que la inferencia representa ahora aproximadamente dos tercios del cómputo de IA, frente a cerca de un tercio en 2023.
Se espera que el mercado de chips orientados a la inferencia supere los $50.000 millones para 2026, agregó, citando estimaciones de Deloitte.
AWS puede utilizar tanto chips de Nvidia como los propios en los mismos sistemas, lo que ofrece a los clientes más opciones que los competidores que mantienen los suyos cerrados, explicó McGrath, y añadió que esta flexibilidad "es un diferenciador".
"Ahora Nvidia está haciendo lo mismo una capa más abajo, con redes y arquitectura de rack en lugar de un modelo de programación", afirmó.
Los chips de inferencia son procesadores diseñados para ejecutar modelos de IA entrenados en tiempo real, sin necesidad de reentrenamiento.
La demanda de inferencia está "impulsando compromisos a largo plazo" para mayor capacidad de cómputo y está estrechando los vínculos entre los proveedores de nube y los fabricantes de chips, señaló a Decrypt Pichapen Prateepavanich, estratega de políticas y fundadora de la firma de infraestructura Gather Beyond.
"Los proveedores de nube quieren independencia a largo plazo, pero en el corto plazo necesitan a Nvidia para seguir siendo competitivos", afirmó, y destacó cómo esto genera una dinámica en la que la cooperación y la competencia ocurren de forma simultánea.
Sin embargo, el control sobre la infraestructura de IA también está cambiando.
Lo que está ocurriendo es un "giro de infraestructura", dijo a Decrypt Berna Misa, socia de inversiones en Boardy Ventures, un fondo de inversión liderado por IA.
Nvidia está "integrando su stack completo de cómputo, redes e inferencia dentro de los centros de datos de AWS, que durante años operaron con hardware propietario", añadió.
Sin embargo, aunque AWS está desarrollando sus propios chips de IA, esto "no cambia los números", explicó, señalando que la inferencia depende de múltiples componentes a lo largo del stack, con Nvidia suministrando la mayoría de ellos.
"Cuando estás tan integrado en el stack de tu cliente, el costo de cambio y la capa de contexto que surge de ello se convierte en el foso", concluyó.

