En Resumen

  • Google lanzó Gemma 4, familia de cuatro modelos de IA abierta bajo licencia Apache 2.0, construida sobre la misma tecnología de Gemini 3.
  • El modelo Dense 31B ocupa el tercer lugar entre todos los modelos abiertos en Arena AI, superando a competidores 20 veces más grandes.
  • Demis Hassabis calificó a Gemma 4 como "los mejores modelos abiertos del mundo" en sus respectivos tamaños.

Las ambiciones de IA abierta de Google se volvieron mucho más serias. La compañía lanzó Gemma 4, una familia de cuatro modelos de pesos abiertos construidos sobre la misma investigación que Gemini 3, y licenciados bajo Apache 2.0—una diferencia significativa respecto a los términos más restrictivos de versiones anteriores de Gemma.

Los desarrolladores han descargado generaciones anteriores de Gemma más de 400 millones de veces, generando más de 100.000 variantes de la comunidad. Este lanzamiento es el más ambicioso hasta ahora.

Durante el último año, el liderazgo en IA de código abierto ha sido en gran medida un asunto chino. DeepSeek, Minimax, GLM y Qwen han dominado los primeros puestos, dejando a las alternativas estadounidenses luchando por relevancia. Según reportó Decrypt el año pasado, los modelos abiertos chinos pasaron de representar apenas el 1,2% del uso global de modelos abiertos a finales de 2024 a aproximadamente el 30% al cierre de 2025, con el Qwen de Alibaba superando incluso al Llama de Meta como el modelo más utilizado en autoalojamiento a nivel mundial.

Llama de Meta solía ser la opción predeterminada para los desarrolladores que querían un modelo potente y ejecutable localmente. Esa reputación se ha erosionado—la licencia controlada por Meta de Llama generó dudas sobre su verdadero estatus de código abierto, y su rendimiento quedó por detrás de la competencia china. La familia OLMo del Allen Institute intentó llenar el vacío, pero no logró ganar tracción real. OpenAI lanzó sus modelos gpt-oss en agosto de 2025, lo que le dio un respiro al ecosistema, aunque nunca fueron diseñados para competir en la frontera del rendimiento.

Y ayer, una startup estadounidense de 30 personas llamada Arcee AI lanzó Trinity, un modelo abierto de 400.000 millones de parámetros que presentó un argumento convincente de que la escena estadounidense no estaba completamente muerta. Gemma 4 sigue ese impulso, esta vez con todo el respaldo de Google DeepMind, convirtiéndolo en posiblemente el mejor modelo estadounidense en la escena de la IA de código abierto.

El modelo está "construido a partir de la misma investigación y tecnología de clase mundial que Gemini 3", señaló Google en su anuncio. Gemma 4 se presenta en cuatro tamaños: Effective 2B y 4B para teléfonos y dispositivos de borde, un modelo Mixture of Experts de 26B enfocado en velocidad, y un modelo Dense de 31B optimizado para calidad bruta.

El Dense de 31B ocupa actualmente el tercer lugar entre todos los modelos abiertos en el ranking de texto de Arena AI. El MoE de 26B ocupa el sexto. Google afirma que ambos superan a modelos 20 veces más grandes—una afirmación que se sostiene, al menos frente a los números de Arena AI, donde los modelos chinos aún ocupan los dos primeros puestos.

Probamos Gemma 4. Es muy bueno, con algunas salvedades. El modelo aplica razonamiento incluso a tareas que no lo requieren, lo que puede hacer que las respuestas se sientan sobrediseñadas para prompts simples. La escritura creativa es aceptable—funcional, no inspirada—y probablemente mejora con instrucciones más específicas y prompt engineering.

Donde se destacó con mayor claridad fue en el código. Al pedirle que generara un juego, el resultado no fue particularmente vistoso ni elaborado, pero funcionó sin errores al primer intento. No está mal para un modelo de 41.000 millones de parámetros. Esa confiabilidad zero-shot es, sin duda, más valiosa que un resultado más atractivo que requiera depuración.

Puedes probar el juego (básico, pero funcional) aquí.

Las cuatro variantes cubren todo el espectro de hardware. Los modelos E2B y E4B están diseñados para teléfonos Android, Raspberry Pi y dispositivos de borde, funcionando completamente sin conexión con latencia casi nula, entrada de audio nativa y una ventana de contexto de 128K. Los modelos de 26B y 31B apuntan a estaciones de trabajo y despliegues en la nube, extendiendo el contexto a 256K y añadiendo llamadas a funciones nativas y salida JSON estructurada para construir agentes autónomos. Los cuatro modelos procesan imágenes y video de forma nativa. Los pesos de precisión completa de los modelos más grandes caben en una sola GPU NVIDIA H100 de 80GB; las versiones cuantizadas funcionan en hardware de consumo.

La licencia Apache 2.0 es el otro titular. Los lanzamientos anteriores de Gemma de Google utilizaban una licencia personalizada que generaba ambigüedad legal para productos comerciales. Apache 2.0 elimina por completo esa fricción—los desarrolladores pueden modificar, redistribuir y comercializar sin preocuparse de que Google cambie los términos más adelante. El cofundador de Hugging Face, Clement Delangue, lo elogió y afirmó que "la IA local está teniendo su momento", y que es el futuro de la industria de la IA. El CEO de Google DeepMind, Demis Hassabis, fue más allá y calificó a Gemma 4 como "los mejores modelos abiertos del mundo en sus respectivos tamaños".

Es una afirmación contundente. Los sistemas propietarios de Anthropic, OpenAI y el propio Gemini de Google siguen liderando en los benchmarks más exigentes. Sin embargo, para los modelos de pesos abiertos que puedes ejecutar localmente, modificar libremente y desplegar en tu propia infraestructura, la competencia acaba de reducirse considerablemente.

Puedes probar Gemma 4 ahora en Google AI Studio (31B y 26B) o en Google AI Edge Gallery (E2B y E4B). Los pesos del modelo también están disponibles en Hugging Face, Kaggle y Ollama.

Daily Debrief Newsletter

Start every day with the top news stories right now, plus original features, a podcast, videos and more.