Minhas principais conclusões da keynote da Apple de hoje: - A Apple está focada em melhorar as GPUs para inferência de IA. O Apple Neural Engine não foi mencionado uma única vez. - Espere que o desempenho de inferência aumente de 3 a 4 vezes (talvez mais) nos próximos chips M5 Apple Silicon para Mac. A largura de banda de memória ainda é um fator importante quando se trata de inferência, mas com novos modelos esparsos MoE como o Qwen 3 Next, o fator computacional se tornará mais importante. - MLX (não CoreML) é onde a IA está acontecendo. Presumo que o Metal suportará os Aceleradores Neurais desde o primeiro dia e assim será o MLX ou logo depois. - Se o aumento de desempenho de 3 a 4 vezes for real, os próximos chips M5 serão incrivelmente bons em inferência e treinamento de IA. Eles já são a melhor relação custo-benefício e serão ainda melhores quando o M5 for lançado. - Com melhorias em software (MLX), modelos e hardware, a inferência de IA local no dispositivo terá um grande impulso tanto no iPhone quanto no Mac.