4 min lectura
OpenAI no está frenando el ritmo. Menos de dos semanas después de lanzar GPT-5.4—que a su vez fue lanzado dos días después del GPT-5.3—la empresa presentó el martes dos nuevos modelos: GPT-5.4 Mini y GPT-5.4 Nano.
No se trata de versiones recortadas del modelo insignia, sino de herramientas diseñadas específicamente para el tipo de trabajo donde esperar medio minuto por una respuesta no es una opción.
OpenAI los califica como sus "modelos pequeños más capaces hasta la fecha", señalando que GPT-5.4 Mini es más de dos veces más rápido que GPT-5 Mini. Si alguna vez viste a un asistente de programación pensar durante 45 segundos antes de editar tres líneas de código, entenderás el atractivo de un modelo rápido.
¿Por qué lanzar deliberadamente un modelo menos preciso? La respuesta corta: porque la precisión no siempre es el cuello de botella. Si tienes un chatbot de servicio al cliente que responde las mismas 200 preguntas todo el día, no necesitas el modelo que obtuvo la mejor puntuación en exámenes de química de nivel doctoral. Necesitas uno que responda en menos de un segundo y cueste una fracción de centavo por consulta. Ese es el espacio para el que fueron creados estos modelos.
Sin embargo, eso no significa que sean poco inteligentes o poco fiables. En benchmarks de programación, GPT-5.4 Mini obtuvo un 54,4% en SWE-Bench Pro—una prueba que mide la capacidad de un modelo para resolver problemas reales en GitHub—frente al 45,7% del antiguo GPT-5 Mini y el 57,7% del GPT-5.4 completo.
En OSWorld-Verified, que evalúa qué tan bien un modelo puede operar una computadora de escritorio a partir de capturas de pantalla, Mini alcanzó un 72,1%, apenas por debajo del 75,0% del modelo insignia—y ambos superan el nivel humano de referencia del 72,4%. GPT-5.4 Nano, por su parte, obtuvo un 52,4% en SWE-Bench Pro y un 39,0% en OSWorld—por debajo de Mini, pero aun así un avance significativo respecto a los modelos Nano anteriores.
"GPT-5.4 representa un paso adelante tanto para los modelos Mini como Nano en nuestras evaluaciones internas", afirmó Jerry Ma, CTO adjunto de Perplexity, tras probar ambos. "Mini ofrece un razonamiento sólido, mientras que Nano es ágil y eficiente para flujos de trabajo conversacionales en tiempo real".
En lugar de enrutar cada tarea a través de un costoso modelo insignia, ahora es posible construir sistemas donde el modelo grande planifica y coordina mientras los modelos más pequeños se encargan del trabajo operativo en paralelo: buscando en una base de código aquí, leyendo un documento allá o procesando un formulario en otro lugar. Como vimos en nuestra comparación entre GPT-5.4 y Grok 4.20, el lugar que ocupa el modelo dentro del flujo de trabajo importa tanto como cuál modelo se elige.
GPT-5.4 Mini tiene un precio de $0,75 por millón de tokens de entrada y $4,50 por millón de tokens de salida a través de la API. GPT-5.4 Nano es aún más económico: $0,20 por millón de tokens de entrada y $1,25 por millón de tokens de salida—un precio que hace viable para startups ejecutar una gran cantidad de consultas diarias. Para dar contexto, Nano es aproximadamente cuatro veces más barato que Mini en tokens de entrada.
Para los usuarios regulares de ChatGPT, GPT-5.4 Mini está disponible hoy para los usuarios Free y Go a través de la opción "Thinking" en el menú plus. Los suscriptores de pago que alcancen sus límites de uso de GPT-5.4 pasarán automáticamente a Mini. GPT-5.4 Nano, en cambio, es por ahora exclusivo para la API—OpenAI lo posiciona claramente como una herramienta para desarrolladores, no para consumidores.
Decrypt-a-cookie
This website or its third-party tools use cookies. Cookie policy By clicking the accept button, you agree to the use of cookies.