En Resumen

  • Anthropic lanzó Claude 2.1, un Modelo de Lenguaje Grande (LLM) con una ventana de contexto de 200.000 tokens, superando la ventana de contexto de 120.000 tokens de GPT-4 Turbo de OpenAI.
  • La nueva versión promete reducir las tasas de alucinación en un 50% y ofrece características como "indicaciones del sistema" para mejorar la interacción entre el usuario y la IA.
  • Claude 2.1 está disponible para los usuarios de Claude Pro, mientras que los usuarios gratuitos tendrán acceso a Claude 2 con una ventana de contexto de 100.000 tokens.

Anthropic acaba de lanzar Claude 2.1, un Modelo de Lenguaje Grande o Large Language Model (LLM) que ofrece una ventana de contexto de 200.000 tokens, una característica que supera la ventana de contexto de 120.000 anunciada recientemente para GPT-4 Turbo de OpenAI.

Este lanzamiento estratégico brinda una capacidad de manejo de contexto que casi duplica la de su competidor más cercano, y es el resultado de una asociación extendida con Google que permitió a la startup utilizar sus unidades de procesamiento de tensores más avanzadas.

"Nuestro nuevo modelo Claude 2.1 ofrece una ventana de contexto de 200.000 tokens líder en la industria, una disminución del 2x en las tasas de alucinación, indicaciones del sistema, uso de herramientas y precios actualizados", dijo Anthropic en un tweet. La introducción de Claude 2.1 responde a la creciente demanda de IA que puede procesar y analizar documentos de formato largo con precisión.

Esta nueva actualización significa que los usuarios de Claude ahora pueden interactuar con documentos tan extensos como bases de código completas o epopeyas literarias clásicas, desbloqueando su potencial en diversas aplicaciones, desde análisis legal hasta crítica literaria.

Esta expansión a una ventana de 200.000 tokens no es solo una actualización incremental: si la tasa de recuperación (la capacidad de comprender con precisión la información de las indicaciones largas) entre Claude 2.1 y GPT-4 Turbo es proporcional, Claude 2.1 sería capaz de manejar las indicaciones de GPT-4 Turbo de manera más precisa que el modelo de OpenAI.

El investigador de IA Greg Kamradt puso rápidamente a prueba el modelo Claude 2.1.

"Desde alrededor de los 90.000 tokens, el rendimiento de la recuperación en la parte inferior del documento comenzó a empeorar cada vez más", concluyó. Su investigación encontró niveles similares de degradación para GPT-4 Turbo alrededor de los 65.000 tokens. "Soy un gran fanático de Anthropic, están ayudando a empujar los límites del rendimiento de LLM y creando herramientas poderosas para el mundo", publicó.

El compromiso de Anthropic de reducir los errores de IA es evidente en la mayor precisión de Claude 2.1, que afirma una reducción del 50% en las tasas de alucinación. Esto se traduce en el doble de veracidad en comparación con Claude 2.0. Estas mejoras fueron rigurosamente probadas con un conjunto sólido de preguntas complejas y factuales diseñadas para desafiar las limitaciones del modelo actual. Como Decrypt informó anteriormente, las alucinaciones eran una de las debilidades de Claude. Un aumento tan drástico en la precisión pondría al LLM en una competencia más cerrada con GPT-4.

Con la introducción de una función de uso de herramientas de API, Claude 2.1 también se integra de manera más fluida en los flujos de trabajo de los usuarios avanzados, demostrando su capacidad para orquestar diversas funciones, buscar en la web y extraer de bases de datos privadas. Aunque aún está en fase beta, esta función promete ampliar la utilidad de Claude en un espectro de operaciones, desde razonamiento numérico complejo hasta recomendaciones de productos.

Además, la versión 2.1 de Claude de Anthropic cuenta con "indicaciones del sistema", diseñadas para mejorar la interacción entre el usuario y la IA. Estas indicaciones permiten a los usuarios establecer el escenario para las tareas de Claude especificando roles, objetivos o estilos, mejorando así la capacidad de Claude para mantener su carácter en escenarios de juego de roles, cumplir con las reglas y personalizar las respuestas. Esto es comparable a las "instrucciones personalizadas" de OpenAI, pero más extensas en términos de contexto.

Por ejemplo, un usuario podría indicarle a Claude que adopte el tono de un analista técnico al resumir un informe financiero, asegurando que el resultado se ajuste a los estándares profesionales. Esta personalización a través de las indicaciones del sistema puede aumentar la precisión, reducir las alucinaciones y mejorar la calidad general de una pieza al hacer que las interacciones sean más precisas y contextualmente relevantes.

Sin embargo, el potencial completo de Claude 2.1, con su ventana de contexto de 200.000 tokens, está reservado para los usuarios de Claude Pro, por lo que los usuarios gratuitos tendrán que conformarse con Claude 2 y sus 100.000 tokens, con una precisión clasificada en algún lugar entre GPT 3.5 y GPT-4.

Los efectos secundarios del lanzamiento de Claude 2.1 están listos para influir en la dinámica dentro de la industria de la IA. A medida que las empresas y los usuarios evalúan sus opciones de IA, las capacidades mejoradas de Claude 2.1 presentan nuevas consideraciones para aquellos que buscan aprovecharla por su precisión y adaptabilidad.

Editado por Ryan Ozawa.

Generally Intelligent Newsletter

A weekly AI journey narrated by Gen, a generative AI model.