Mis principales conclusiones de la keynote de Apple de hoy: - Apple se está enfocando en mejorar las GPU para la inferencia de IA. El Apple Neural Engine ni siquiera se mencionó una vez. - Se espera que la computación de inferencia aumente de 3 a 4 veces (quizás más) en los próximos chips M5 de Apple Silicon para Mac. El ancho de banda de memoria sigue siendo un factor importante en la inferencia, pero con nuevos modelos de MoE dispersos como Qwen 3 Next, el factor de computación se volverá más importante. - MLX (no CoreML) es donde está ocurriendo la IA. Supongo que Metal soportará los Aceleradores Neurales desde el primer día y así lo hará MLX o lo hará pronto después. - Si el aumento de rendimiento de 3 a 4 veces es real, los próximos chips M5 serán increíblemente buenos en inferencia y entrenamiento de IA. Ya son la mejor relación calidad-precio y lo serán aún más cuando se lancen los M5. - Con la mejora tanto del software (MLX), los modelos y el hardware, la inferencia de IA local en el dispositivo recibirá un gran impulso tanto en iPhone como en Mac.