> Sei du selbst > Möchtest du wirklich lernen, wie LLMs funktionieren > Es reicht mit „Fang einfach mit linearer Algebra an und komm in 5 Jahren wieder“ > Entscheide dich, deinen eigenen Fahrplan zu erstellen > Kein Geschwafel. Keine Umwege. Keine 200-stündigen generischen ML-Playlists > Nur die Dinge, die dich tatsächlich von „Was ist ein Token?“ zu „Ich habe ein mini-GPT mit LoRA-Adaptern und FlashAttention trainiert“ bringen > Ziel: LLMs bauen, feinabstimmen und ausliefern > Nicht nur mit ihnen herumspielen. Nicht „die Theorie“ für immer lernen > Baue sie > Du wirst: > > Eine Autograd-Engine von Grund auf neu bauen > > Ein mini-GPT von Grund auf neu schreiben > > LoRA implementieren und ein Modell mit echten Daten feinabstimmen > > CUDA mindestens einmal hassen > > Weinen > > Weitermachen > 5 Phasen > Wenn du schon etwas weißt? Überspringen > Wenn du verloren bist? Nochmal ansehen > Wenn du feststeckst? Nutze DeepResearch > Das ist ein Fahrplan, kein Zwang > Am Ende: Entweder hast du das Ding gebaut oder nicht > Phase 0: Grundlagen > > Wenn Matrizenmultiplikation beängstigend ist, bist du noch nicht bereit...