Er hat die 6 wichtigsten Veränderungen von der größten KI-Forschungsveranstaltung des Jahres, NeurIPS 2025, aufgelistet. Es sagt uns viel darüber, wohin die KI im Jahr 2026 steuert: 1. Der Aufmerksamkeitsmechanismus erhält ein ordentliches Upgrade. Er wird selektiver, indem Techniken wie Gating, Sparsamkeit und bessere Langzeitkontextverarbeitung eingesetzt werden. In vielleicht 6 Monaten werden Sie Modelle sehen, die günstiger, intelligenter und effizienter sind. 2. Grenzmodelle konvergieren. Das wussten wir schon ein bisschen, aber erneut klingen die besten Modelle immer ähnlicher. Ihre Wahl des Grenzmodells ist weniger wichtig als zuvor, aber auch jede Voreingenommenheit oder blinde Stelle wird überall gleichzeitig verstärkt. 3. RL skaliert endlich für Robotik. Es hat jahrelang stagniert. Der Ansatz „einfach weiter skalieren“, der für LLMs funktioniert hat, funktioniert jetzt auch für Agenten. 2026 wird das Jahr des großen Fortschritts in agentischen Systemen sein. 4. Diffusionsmodelle merken sich nicht nur Trainingsdaten. Ein wichtiges Theoriepapier hat gezeigt, dass das Diffusionstraining tatsächlich zwei Phasen hat: eine frühe Phase, in der Modelle lernen, qualitativ hochwertige Proben zu generieren, und eine spätere Phase, in der sie beginnen, spezifische Dinge zu memorieren. Mehr Trainingsdaten verschieben die Memorierungsphase und geben Ihnen ein größeres Zeitfenster, bevor es zu Überanpassung kommt. 5. Das akademische Papersystem ist KOCHEN (ernsthaft). Mit 20000 Einreichungen ertrinkt NeurIPS in Papers. Sie experimentieren sogar mit KI, um KI-generierte Papers zu überprüfen. Das bedeutet, dass Sie dem Prestige von Konferenzen und Publikationen nicht mehr wirklich vertrauen können. Sie müssen sich darauf verlassen, wer das Paper geschrieben hat und welchen Hintergrund diese Person hat. 6. Große Labore setzen alles auf Denken, Effizienz und Integration. Das Rennen um die Grenzen dreht sich nicht mehr nur um die Modellgröße. Große Labore arbeiten jetzt an: (1) Denken als messbare Kennzahl, schrittweises Denken, Toolaufrufe, Suchnutzung (2) Effizienz, starke Modelle auf Handys und Edge-Geräten mit niedriger Latenz ausführen (3) Workflow-Integration, Modelle in Tools und Protokolle wie MCP einbinden. Ich empfehle Ihnen wirklich, sich diese 10-minütige Zusammenfassung anzusehen, wenn Sie sich für KI-Forschung interessieren.