En Resumen
- Apple lanzó ocho modelos pequeños de inteligencia artificial, OpenELM, diseñados para dispositivos móviles y sin conexión.
- Estos modelos, disponibles en versiones pre-entrenadas o ajustadas a instrucciones, pueden aplicarse en asistentes virtuales y análisis de texto.
- La iniciativa llega en un momento en que otras empresas, como Microsoft y Google, también están avanzando en el campo de la inteligencia artificial móvil.
Viendo la fuerza en los números, Apple ha realizado un movimiento estratégico en el competitivo mercado de la inteligencia artificial al poner a disposición ocho modelos pequeños de IA. Las herramientas compactas, llamadas colectivamente OpenELM, están diseñadas para funcionar en dispositivos móviles y sin conexión, lo que las hace perfectas para teléfonos inteligentes.
Publicados en la comunidad de IA de código abierto Hugging Face, los modelos se ofrecen en versiones de 270 millones, 450 millones, 1.100 millones y 3.000 millones de parámetros. Los usuarios también pueden descargar OpenELM de Apple en versiones pre-entrenadas o ajustadas a instrucciones.
Los modelos pre-entrenados proporcionan una base sobre la cual los usuarios pueden ajustar y desarrollar. Los modelos ajustados a instrucciones ya están programados para responder a instrucciones, lo que los hace más adecuados para conversaciones e interacciones con los usuarios finales.
Si bien Apple no ha sugerido casos de uso específicos para estos modelos, podrían aplicarse para ejecutar asistentes que puedan analizar correos electrónicos y textos, o proporcionar sugerencias inteligentes basadas en los datos. Este es un enfoque similar al adoptado por Google, que desplegó su modelo de IA Gemini en su línea de teléfonos inteligentes Pixel.
Los modelos fueron entrenados con conjuntos de datos públicamente disponibles, y Apple está compartiendo tanto el código de CoreNet (la biblioteca utilizada para entrenar OpenELM) como las "recetas" de sus modelos. En otras palabras, los usuarios pueden inspeccionar cómo Apple los construyó.
El lanzamiento de Apple llega poco después de que Microsoft anunciara Phi-3, una familia de modelos de lenguaje pequeños capaces de ejecutarse localmente. Phi-3 Mini, un modelo de 3.800 millones de parámetros entrenado en 3,3 billones de tokens, sigue siendo capaz de manejar 128K tokens de contexto, lo que lo hace comparable a GPT-4 y supera a Llama-3 y Mistral Large en términos de capacidad de tokens.
Siendo de código abierto y ligero, Phi-3 Mini podría potencialmente reemplazar asistentes tradicionales como Siri de Apple o Gemini de Google para algunas tareas, y Microsoft ya ha probado Phi-3 en un iPhone y ha reportado resultados satisfactorios y generaciones rápidas de tokens.
Si bien Apple aún no ha integrado estas nuevas capacidades de modelos de lenguaje de IA en sus dispositivos de consumo, se rumorea que la próxima actualización de iOS 18 incluye nuevas funciones de IA que utilizan el procesamiento en el dispositivo para garantizar la privacidad del usuario.
El hardware de Apple tiene una ventaja en el uso local de IA, ya que combina la RAM del dispositivo con la RAM de video de la GPU (o VRAM). Esto significa que una Mac con 32 GB de RAM (una configuración común en una PC) puede utilizar esa RAM como lo haría la VRAM de la GPU para ejecutar modelos de IA. En comparación, los dispositivos Windows se ven limitados por la RAM del dispositivo y la VRAM de la GPU por separado. A menudo, los usuarios necesitan comprar una potente GPU de 32 GB para aumentar la RAM y ejecutar modelos de IA.
Sin embargo, Apple se queda atrás de Windows/Linux en el área de desarrollo de IA. La mayoría de las aplicaciones de IA giran en torno al hardware diseñado y construido por Nvidia, que Apple eliminó gradualmente en apoyo de sus propios chips. Esto significa que hay relativamente poco desarrollo de IA nativo de Apple, y como resultado, el uso de IA en productos de Apple requiere capas de traducción u otros procedimientos complejos.