Apple Presenta Ruta de Código Abierto Para el Desarrollo de IA en Sus Chips de Silicio

MLX acelera el desarrollo de IA en hardware de Apple, conectando a sus usuarios con la comunidad más amplia de desarrollo de IA en otras plataformas.

Por Jose Antonio Lanz

3 min lectura

Apple cambió a sus propios chips de computadora hace tres años, avanzando audazmente hacia el control total de su pila tecnológica. Hoy, Apple ha lanzado MLX, un marco de código abierto especialmente diseñado para realizar aprendizaje automático en las CPU M de Apple.

La mayoría del desarrollo de software de IA actualmente se lleva a cabo en sistemas de código abierto Linux o Microsoft, y Apple no quiere que su próspero ecosistema de desarrolladores se quede fuera de lo último.

MLX tiene como objetivo resolver los problemas de compatibilidad y rendimiento de larga data asociados con la arquitectura y el software únicos de Apple, pero es más que un simple juego técnico. MLX ofrece un diseño fácil de usar, probablemente inspirado en marcos reconocidos como PyTorch, Jax y ArrayFire. Su introducción promete un proceso más eficiente para entrenar e implementar modelos de aprendizaje automático de IA en dispositivos Apple.

Arquitectónicamente hablando, MLX se distingue por su modelo de memoria unificada, donde las matrices existen en memoria compartida, lo que permite operaciones en diferentes tipos de dispositivos compatibles sin necesidad de duplicar datos. Esta característica es crucial para los desarrolladores que buscan flexibilidad en sus proyectos de IA.

En resumen, la memoria unificada significa que tu GPU comparte su VRAM con la RAM de la computadora, por lo que en lugar de comprar una PC potente y luego agregar una GPU potente con mucha vRAM, puedes usar simplemente la RAM de tu Mac para todo.

Sin embargo, el camino hacia el desarrollo de IA en Apple Silicon no ha estado exento de desafíos, principalmente debido a su ecosistema cerrado y la falta de compatibilidad con muchos proyectos de desarrollo de código abierto y su infraestructura ampliamente utilizada.

"Es emocionante ver más herramientas como esta para trabajar con objetos similares a tensores, pero realmente desearía que Apple facilitara la portabilidad de modelos personalizados de manera más eficiente en términos de rendimiento", dijo un desarrollador en Hacker News en una discusión sobre el anuncio.

Hasta ahora, los desarrolladores tenían que convertir sus modelos a CoreML para que pudieran ejecutarse en Apple. Esta dependencia de un traductor no es ideal.

CoreML se enfoca en convertir modelos de aprendizaje automático preexistentes y optimizarlos para dispositivos Apple. Mientras que, MLX, se trata de crear y ejecutar modelos de aprendizaje automático directa y eficientemente en el hardware propio de Apple, ofreciendo herramientas para la innovación y el desarrollo dentro del ecosistema de Apple.

MLX ha obtenido buenos resultados en pruebas de referencia. Su compatibilidad con herramientas como Stable Diffusion y Whisper de OpenAI representa un avance significativo. Es importante destacar que las comparaciones de rendimiento revelan la eficiencia de MLX, superando la ejecución de PyTorch en velocidades de generación de imágenes con tamaños de lote más grandes.

Por ejemplo, Apple informa que se tarda "unos 90 segundos en generar completamente 16 imágenes con MLX y 50 pasos de difusión con guía libre de clasificador y unos 120 con PyTorch".

A medida que la IA continúa evolucionando a un ritmo acelerado, MLX representa un hito importante para el ecosistema de Apple. No solo aborda desafíos técnicos, sino que también abre nuevas posibilidades para la investigación y el desarrollo de IA y aprendizaje automático en dispositivos de Apple, un movimiento estratégico considerando la separación de Apple de Nvidia y su propio ecosistema de IA sólido.

MLX tiene como objetivo hacer de la plataforma de Apple una opción más atractiva y factible para investigadores y desarrolladores de IA, y significa una Navidad más alegre para los fanáticos obsesionados con la IA de Apple.

Get crypto news straight to your inbox--

sign up for the Decrypt Daily below. (It’s free).

Noticias recomendados