4 min lectura
Google Labs ha anunciado una importante actualización de su herramienta de inteligencia artificial Gemini Pro, el modelo de IA de tamaño mediano que alimenta la versión gratuita de su chatbot, introduciendo la capacidad de procesar hasta 1 millón de tokens en vista previa. Proporciona un "tamaño de contexto" sin precedentes que deja atrás a las herramientas líderes actuales y su capacidad de procesamiento de 128.000 tokens.
La actualización a Gemini Pro v1.5 lo hace teóricamente un 700% más potente que el modelo GPT-4 de pago de OpenAI, y establece un nuevo punto de referencia para la lingüística computacional y el aprendizaje automático entre los modelos de lenguaje grandes o Large Language Models (LLMs).
La cifra es "la ventana de contexto más larga de cualquier modelo base a gran escala", según Google.
"Hasta hoy, la ventana de contexto más grande del mundo para un modelo de lenguaje grande disponible públicamente era de 200.000 tokens. Hemos logrado aumentar significativamente esto, ejecutando consistentemente hasta 1 millón de tokens", compartió el equipo de Google Labs.
Con esta función, Gemini Pro sería más capaz que la versión más potente de la actual línea de Gemini, y cualquier otro LLM disponible actualmente. Sin embargo, este contexto se puso en línea con fines de prueba, mientras que la próxima versión estable de Gemini Pro manejará hasta 128.000 tokens.
Si bien esta versión será una mejora importante sobre los 32.000 tokens que Gemini 1.0 puede procesar, los usuarios tendrán que esperar para ver qué pueden hacer 1 millón de tokens.
Este movimiento es el último ataque de Google en la carrera por dominar la industria de la IA. La semana pasada, Gemini Advanced se convirtió en el primer competidor creíble de ChatGPT Plus. A diferencia de Claude de Anthropic, el chatbot de Google es multimodal, proporciona buenos resultados en diferentes pruebas y ofrece un conjunto de características que OpenAI no tiene.
Sin embargo, Gemini Advanced se pondrá al día con GPT-4.5 Turbo, que ya maneja 128.000 tokens.
La versatilidad de Gemini 1.5 se mostró vívidamente a través de varias demostraciones. Google dijo que "puede procesar grandes cantidades de información de una sola vez, incluyendo 1 hora de video, 11 horas de audio, bases de código con más de 30.000 líneas de código o más de 700.000 palabras".
"En nuestra investigación, también hemos probado con éxito hasta 10 millones de tokens", agregó el equipo.
Una desventaja: los modelos de Gemini no pueden analizar archivos PDF, una falla que Decrypt señaló en su comparación entre Gemini y ChatGPT.
Otra diferencia entre Gemini 1.5 y sus versiones anteriores es el uso de Mixture of Experts, la misma tecnología que Mistral AI utilizó para crear su modelo más ligero. La entrada de Mistral fue lo suficientemente potente como para vencer a GPT 3.5 y ascender a los niveles superiores de los mejores LLM de código abierto.
"(Mixture of Experts) dirige su solicitud a un grupo de redes neuronales más pequeñas y 'expertas', por lo que las respuestas son más rápidas y de mayor calidad", señaló Google en su anuncio, diciendo que esto asegura que las respuestas no solo sean más rápidas, sino también de mayor calidad.
Al igual que Mistral, Google logró que su modelo brillara. Gemini 1.5 Pro mostró un rendimiento superior en varios puntos de referencia en comparación con Gemini Ultra 1.0, lo que sugiere un futuro prometedor para los LLM de Google.
"[El nuevo modelo] Muestra mejoras dramáticas en varias dimensiones y Gemini 1.5 Pro logra una calidad comparable a Gemini Ultra 1.0, al tiempo que utiliza menos recursos de cómputo", dijo el CEO de Google, Sundar Pichai, en una publicación de blog hoy.
El anuncio no proporcionó una línea de tiempo para el lanzamiento de Gemini Advanced 1.5. Mientras tanto, OpenAI está desarrollando activamente GPT-5. Las capacidades mejoradas de manejo de tokens de Gemini ayudarán a fortalecer la posición de Google en la carrera armamentista de la IA.
Editado por Ryan Ozawa.
Decrypt-a-cookie
This website or its third-party tools use cookies. Cookie policy By clicking the accept button, you agree to the use of cookies.