3 min lectura
OpenAI presentó GPT-4 Turbo en su conferencia inaugural para desarrolladores, describiéndolo como un sucesor más potente y rentable que GPT-4. La actualización cuenta con un procesamiento de contexto mejorado y la flexibilidad para ajuste fino para satisfacer los requisitos del usuario.
GPT-4 Turbo está disponible en dos versiones: una centrada en texto y otra que también procesa imágenes. Según OpenAI, GPT-4 Turbo ha sido "optimizado para un rendimiento", con precios tan bajos como $0,01 por cada 1.000 tokens de texto y $0,03 por cada 1.000 tokens de imagen, casi un tercio del precio de GPT-4.
¿Cómo hace que esta función de ajuste fino sea tan especial en GPT-4 Turbo?
"El ajuste fino mejora el aprendizaje de pocos ejemplos al entrenar con muchos más ejemplos de los que caben en la indicación, lo que te permite obtener mejores resultados en una amplia variedad de tareas", explica OpenAI aquí. En esencia, el ajuste fino reduce la brecha entre los modelos de IA genéricos y las soluciones personalizadas adaptadas a aplicaciones específicas. Además promete "resultados de mayor calidad que la indicación, ahorro de tokens gracias a indicaciones más cortas y respuestas más rápidas a las solicitudes".
El ajuste fino implica alimentar a un modelo con datos personalizados extensos para que aprenda comportamientos específicos, transformando modelos genéricos grandes como GPT-4 en herramientas especializadas para tareas específicas sin construir un modelo completamente nuevo. Por ejemplo, un modelo ajustado a información médica, proporcionará resultados más precisos y "hablará" más como un médico.
Una buena analogía se puede ver en el mundo de los generadores de imágenes: los modelos ajustados de Stable Diffusion tienden a producir imágenes mejores que el Stable Diffusion XL o 1.5, porque han aprendido de datos especializados.
Antes de esta innovación, OpenAI permitía modificaciones limitadas en el comportamiento de sus LLM a través de instrucciones personalizadas. Esto ya era un gran avance en calidad para aquellos que buscaban personalización. El ajuste fino eleva esto al introducir nuevos datos, tono, contexto y voz en el conjunto de datos del modelo.
El valor del ajuste fino es significativo. A medida que la IA se vuelve más integral en nuestra vida diaria, hay una creciente necesidad de modelos adaptados a necesidades específicas.
"El ajuste fino de los modelos de generación de texto de OpenAI puede mejorarlos para aplicaciones específicas, pero requiere una inversión cuidadosa de tiempo y esfuerzo", señala OpenAI en su guía oficial.
La compañía ha estado mejorando constantemente sus modelos en cuanto a contexto, capacidades multimodales y precisión. Con este nuevo anuncio, la capacidad de GPT-4 Turbo no tiene igual entre los LLM cerrados de código fuente principal como Claude o Bard de Google.
Si bien los LLM de código abierto como LlaMA o Mistral se pueden ajustar finamente, no se comparan con el de OpenAI en potencia y usabilidad profesional.
El lanzamiento de GPT-4 Turbo y su énfasis en el ajuste fino marcan un cambio significativo en la tecnología de IA. Los usuarios pueden anticipar interacciones más personalizadas y eficientes, con posibles impactos que abarcan desde el soporte al cliente hasta la creación de contenido.
Decrypt-a-cookie
This website or its third-party tools use cookies. Cookie policy By clicking the accept button, you agree to the use of cookies.