> vara dig själv > vill faktiskt lära dig hur LLM:er fungerar > trött på "börja bara med linjär algebra och kom tillbaka om 5 år" > bestämmer mig för att bygga min egen färdplan > inget fluff. Inga omvägar. inga 200-timmars generiska ML-spellistor > bara det som faktiskt får dig att gå från "vad är en token?" till "Jag tränade en mini-GPT med LoRA-adaptrar och FlashAttention" > mål: bygga, finjustera och leverera LLM:er > inte vibrera med dem. inte "lära sig teorin" för alltid > bygger dem > du ska: > > bygger en Autograd-motor från grunden > > skriver en mini-GPT från grunden > > implementera LoRA och finjustera en modell på verkliga data > > hatar CUDA minst en gång > > gråter > > fortsätta > 5 faser > om du redan vet något? skippa > om du har gått vilse? Titta igen > om du har fastnat? använd DeepResearch > detta är en färdplan, inte ett koppel > i slutet: antingen byggde du saken eller så gjorde du det inte > fas 0: fundament > > om matrismultiplikation är skrämmande är du inte redo än...