Meine größten Erkenntnisse aus der heutigen Apple-Keynote: - Apple konzentriert sich darauf, die GPUs für KI-Inferenz zu verbessern. Der Apple Neural Engine wurde nicht einmal erwähnt. - Erwarten Sie, dass die Inferenzberechnung in den kommenden M5 Apple Silicon-Chips für Mac um das 3-4-fache (vielleicht mehr) steigt. Die Speicherbandbreite ist nach wie vor ein wichtiger Faktor für die Inferenz, aber mit neuen sparsamen MoE-Modellen wie Qwen 3 Next wird der Berechnungsfaktor wichtiger werden. - MLX (nicht CoreML) ist der Ort, an dem KI stattfindet. Ich nehme an, dass Metal die Neural Accelerators von Anfang an unterstützen wird und dass auch MLX dies tun wird oder bald danach. - Wenn der Leistungszuwachs von 3-4x real ist, werden die kommenden M5-Chips bei der KI-Inferenz und -Schulung unglaublich gut sein. Sie sind bereits das beste Preis-Leistungs-Verhältnis und werden noch besser, wenn die M5 auf den Markt kommt. - Mit der Verbesserung von Software (MLX), Modellen und Hardware wird die lokale KI-Inferenz auf Geräten sowohl beim iPhone als auch beim Mac einen riesigen Schub erhalten.