En Resumen

  • Alibaba Cloud presentó QwQ-32B, un modelo de IA con 32.500 millones de parámetros que igualó el rendimiento de modelos mucho más grandes en tareas de razonamiento y codificación.
  • A pesar de sus limitaciones en mezcla de idiomas y razonamiento recursivo, el modelo logró puntajes sobresalientes en evaluaciones matemáticas y es de código abierto bajo licencia Apache 2.0.
  • Ollama y Groq añadieron soporte para QwQ-32B, permitiendo su integración en aplicaciones de terceros con inferencia ultrarrápida, lo que refuerza la competitividad de Alibaba en IA.

Alibaba Cloud ha presentado un nuevo modelo de IA centrado en el razonamiento que logra igualar el rendimiento de competidores mucho más grandes a pesar de ser una fracción de su tamaño.

La división de computación en la nube del gigante tecnológico chino ofrece su última propuesta desafiando la noción de que más grande siempre es mejor en el mundo de la IA.

Apodado QwQ-32B, el modelo está construido sobre la base de Qwen2.5-32B de Alibaba y utiliza 32.500 millones de parámetros, mientras ofrece un rendimiento comparable a DeepSeek r1, que alberga 671 mil millones de parámetros.

El logro de David contra Goliat ha captado la atención de investigadores y desarrolladores de IA a nivel global.

"Este resultado notable subraya la efectividad de RL cuando se aplica a modelos de base robustos preentrenados con un extenso conocimiento del mundo", afirmó el equipo de Qwen de Alibaba en su entrada de blog.

Según la empresa, QwQ-32B destaca especialmente en razonamiento matemático y tareas de codificación. 

"Descubrimos que el entrenamiento de RL puede mejorar continuamente el rendimiento, especialmente en matemáticas y codificación, y observamos que la escalabilidad continua de RL puede ayudar a un modelo de tamaño mediano a lograr un rendimiento competitivo frente a un gigantesco modelo MoE", escribió Alibaba en su tuit de anuncio.

Obtuvo un 65.2% en GPQA (una prueba de razonamiento científico a nivel de posgrado), un 50% en AIME (matemáticas avanzadas) y un impresionante 90,6% en MATH-500, que abarca una amplia gama de problemas matemáticos, según los resultados internos de referencia.

La comunidad de IA ha respondido con entusiasmo. "¡Absolutamente encantador!," señaló Vaibhav Srivastav, un científico de datos e investigador de IA, mientras que Julien Chaumond, CTO en Huggin Face dijo que el modelo "cambia todo".

Y, por supuesto, también hubo algunos memes divertidos.

Además, Ollama y Groq anunciaron que implementaron soporte para el modelo, lo que significa que los usuarios ahora pueden programar agentes de código abierto y utilizar este modelo en aplicaciones de terceros, logrando velocidades de inferencia sin precedentes con la infraestructura de Groq.

Esta mejora de eficiencia marca un posible cambio en la industria, donde la tendencia ha sido hacia modelos cada vez más grandes. En cambio, QwQ-32B adopta un enfoque similar al de DeepSeek R1, demostrando que las técnicas de entrenamiento inteligentes pueden ser tan importantes como la cantidad de parámetros brutos cuando se trata del rendimiento de la IA.

QwQ-32B tiene limitaciones. A veces tiene dificultades con la mezcla de idiomas y puede caer en bucles de razonamiento recursivo que afectan su eficiencia.

Además, al igual que otros modelos de IA chinos, cumple con los requisitos regulatorios locales que pueden restringir las respuestas sobre temas políticamente sensibles y tiene una ventana de contexto de tokens limitada de 32K.

Abrir la salsa

A diferencia de muchos sistemas avanzados de IA, especialmente de América y países occidentales, que operan detrás de muros de pago, QwQ-32B está disponible como software de código abierto bajo la licencia Apache 2.0.

El lanzamiento sigue al lanzamiento en enero de Alibaba de Qwen 2.5-Max, que la empresa afirmó superó a los competidores "casi en todos los aspectos".

Ese lanzamiento anterior se produjo durante las celebraciones del Año Nuevo Lunar, destacando la presión competitiva que enfrentan las empresas tecnológicas chinas en el paisaje de la IA en rápida evolución.

La influencia de los modelos chinos en el estado de la industria de la IA es tal que en una declaración anterior sobre este tema, el presidente Donald Trump describió su rendimiento como una "llamada de atención" para Silicon Valley, pero los consideró "una oportunidad en lugar de una amenaza".

Cuando se lanzó DeepSeek R1, provocó una caida significativa en el mercado de valores, pero QwQ-32B no ha afectado a los inversores de la misma manera.

En general, el Nasdaq está a la baja, principalmente por razones políticas en lugar de un FUD atribuido a la influencia de Alibaba.

Aun así, Alibaba ve este lanzamiento como solo el comienzo. 

"Esto marca el primer paso de Qwen en la escalabilidad del Aprendizaje por Refuerzo para mejorar las capacidades de razonamiento," declaró la empresa en su publicación de blog. 

"Estamos seguros de que combinar modelos de base más sólidos con RL impulsado por recursos computacionales escalados nos acercará más a lograr la Inteligencia Artificial General (AGI)."

Editado por Sebastiaan Sinclair

Generally Intelligent Newsletter

A weekly AI journey narrated by Gen, a generative AI model.