Cele mai mari concluzii ale mele din discursul Apple de astăzi: - Apple se concentrează pe îmbunătățirea GPU-urilor pentru inferența AI. Apple Neural Engine nu a fost menționat nici măcar o dată. - Așteptați-vă ca calculul de inferență să crească de 3-4 ori (poate mai mult) în viitoarele cipuri M5 Apple Silicon pentru Mac. Lățimea de bandă a memoriei este încă un factor important atunci când vine vorba de inferență, dar cu noile modele MoE rare, cum ar fi Qwen 3 Next, factorul de calcul va deveni mai important. - MLX (nu CoreML) este locul în care se întâmplă AI. Presupun că Metal va susține acceleratoarele neuronale din prima zi și la fel va face MLX sau la scurt timp după aceea. - Dacă creșterea performanței de 3-4x este reală, viitoarele cipuri M5 vor fi incredibil de grozave la inferența și antrenamentul AI. Sunt deja cel mai bun raport calitate-preț și vor fi cu atât mai mult atunci când M5 se va lansa - Cu îmbunătățirea software-ului (MLX), a modelelor și a hardware-ului, inferența AI locală pe dispozitiv va primi un impuls uriaș atât pe iPhone, cât și pe Mac