Mijn grootste inzichten van de Apple keynote van vandaag: - Apple richt zich op het verbeteren van de GPU's voor AI-inferentie. De Apple Neural Engine werd zelfs niet één keer genoemd. - Verwacht dat de inferentie-rekenkracht met 3-4x (misschien meer) zal toenemen in de komende M5 Apple Silicon-chips voor Mac. Geheugenbandbreedte blijft een belangrijke factor als het gaat om inferentie, maar met nieuwe spaarzame MoE-modellen zoals Qwen 3 Next, zal de rekenfactor belangrijker worden. - MLX (niet CoreML) is waar AI plaatsvindt. Ik neem aan dat Metal de Neural Accelerators vanaf dag één zal ondersteunen en dat MLX dat ook zal doen of binnenkort daarna. - Als de 3-4x prestatieverbetering echt is, zullen de komende M5-chips ongelooflijk goed zijn in AI-inferentie en training. Ze zijn al de beste prijs-kwaliteitverhouding en zullen nog beter zijn wanneer de M5 wordt gelanceerd. - Met zowel software (MLX), modellen als hardware die verbeteren, zal lokale AI-inferentie op apparaten een enorme boost krijgen op zowel iPhone als Mac.