
Apple abre MLX al mundo NVIDIA: el framework de aprendizaje automático será compatible con CUDA. Apple da un paso inesperado en el mundo del aprendizaje automático.
Su framework de desarrollo de modelos de IA, conocido como MLX, está en proceso de incorporar soporte oficial para CUDA, la plataforma de aceleración por GPU creada por NVIDIA. Esto supone un cambio significativo en la estrategia de Apple, conocida por mantener sus herramientas optimizadas exclusivamente para su propio hardware.
El avance fue revelado por el desarrollador @zcbenz en GitHub (vía AppleInsider), quien lidera el proyecto de integración CUDA. La iniciativa, que comenzó hace algunos meses como un experimento, ya ha logrado resultados tangibles: operaciones fundamentales como la multiplicación de matrices, la función softmax y las operaciones de reducción y ordenamiento ya funcionan correctamente con GPUs NVIDIA.
¿Qué es CUDA y por qué importa?
CUDA es el entorno de desarrollo propietario de NVIDIA, diseñado para explotar al máximo sus tarjetas gráficas en tareas de computación de alto rendimiento, especialmente en el campo del machine learning. Prácticamente cualquier framework importante, desde PyTorch hasta TensorFlow, depende de CUDA para entrenar modelos de IA en entornos profesionales y científicos.
Tradicionalmente, los desarrolladores de inteligencia artificial entrenan sus modelos localmente con CUDA y luego los escalan a grandes servidores de GPUs NVIDIA para producción y análisis. Es aquí donde entra en juego la nueva compatibilidad de MLX.

De Metal a CUDA: la apuesta de Apple por la interoperabilidad
Apple lanzó MLX como un framework optimizado para Apple Silicon y el entorno gráfico Metal, pensado para el desarrollo eficiente y rápido en sus propios dispositivos. Con la llegada del backend CUDA, sin embargo, los desarrolladores ahora podrán trabajar con MLX directamente sobre GPUs NVIDIA, sin sacrificar rendimiento ni compatibilidad.
Esto representa una oportunidad clave: los investigadores pueden comenzar proyectos en sus Mac y luego llevar sus modelos a infraestructuras más potentes sin tener que rehacer el trabajo ni migrar el código a otro framework.
Aunque el backend CUDA aún está en construcción y faltan varios operadores de MLX por implementar, este movimiento posiciona a Apple como un actor más flexible en el ecosistema de la inteligencia artificial, abriendo puertas a colaboraciones y flujos de trabajo antes impensables para los usuarios de su plataforma.
¿Qué significa esto para los desarrolladores?
En pocas palabras: interoperabilidad. Gracias a esta integración, MLX podría convertirse en una herramienta atractiva tanto para usuarios de Mac como para grandes empresas y laboratorios de investigación que dependen de NVIDIA.
Apple, al permitir trabajar de manera cruzada entre su propio hardware y el estándar de la industria en GPUs, empieza a posicionarse de forma más estratégica dentro del mundo de la IA profesional. Por ahora, el backend CUDA de MLX está disponible en GitHub, permitiendo a cualquier interesado contribuir al desarrollo o probar el funcionamiento con sus propios proyectos.











