En Resumen

  • Google presentó los chips TPU 8t y TPU 8i en Cloud Next 2026, ofreciendo hasta 121 ExaFlops y 80% más rendimiento por dólar.
  • Sundar Pichai afirmó que Google gastará hasta $185.000 millones este año en infraestructura de IA para la "era agéntica".
  • Citadel Securities ya adoptó los nuevos TPU, y Anthropic recibirá gigavatios de capacidad de próxima generación bajo su acuerdo ampliado con Google.

El miércoles, Google presentó dos procesadores de inteligencia artificial en su conferencia Cloud Next 2026 en Las Vegas, marcando la octava generación de chips personalizados de la compañía diseñados para desafiar el dominio de Nvidia en el mercado de chips de IA.

El TPU 8t, enfocado en el entrenamiento, ofrece casi 3 veces el rendimiento computacional por pod en comparación con su predecesor, con un único superpod que escala hasta 9.600 chips y entrega 121 ExaFlops de capacidad de cómputo. La arquitectura también ofrece una relación precio-rendimiento 2,8 veces superior, según Google.

El TPU 8i adopta un enfoque diferente, optimizado para cargas de trabajo de inferencia con 3 veces más SRAM en chip que las generaciones anteriores: 384 MB de SRAM en chip junto con 288 GB de memoria de alto ancho de banda. El chip ofrece hasta un 80% más de rendimiento por dólar y el doble de rendimiento por vatio, según afirmó la compañía.

Ambos chips utilizan la nueva arquitectura Boardfly de Google, que logra hasta un 50% de mejora en la latencia para cargas de trabajo con uso intensivo de comunicaciones al reducir el diámetro de red, según muestra la documentación técnica.

El anuncio del hardware se produce tras la ampliación de la asociación de Google con Anthropic a principios de este mes, que proporcionará a la startup de IA varios gigavatios de capacidad de TPU de próxima generación. El acuerdo pone de relieve cómo Google está aprovechando su silicio personalizado para atraer a grandes empresas de IA que buscan alternativas a las GPU de Nvidia en un mercado de infraestructura cada vez más competitivo.

El CEO de Google, Sundar Pichai, posicionó los chips como diseñados específicamente para agentes de IA, señalando que ofrecen el enorme rendimiento y la baja latencia necesarios para ejecutar millones de agentes de forma simultánea y rentable. La compañía ya ha asegurado la adopción por parte de Citadel Securities, con la firma de servicios financieros eligiendo los TPU para impulsar sus cargas de trabajo de IA.

La estrategia de doble chip refleja las divergentes necesidades computacionales de los sistemas de IA modernos: procesamiento paralelo masivo para el entrenamiento de modelos frontier, frente a operaciones rápidas e intensivas en memoria para desplegar esos modelos como agentes interactivos.

El miércoles, Pichai afirmó que Google va camino de gastar hasta $185.000 millones solo este año para impulsar la infraestructura de IA para la "era agéntica", y que la firma ya genera casi el 75% de su nuevo código con IA bajo la supervisión de ingenieros.

Daily Debrief Newsletter

Start every day with the top news stories right now, plus original features, a podcast, videos and more.