> wees jezelf > wil echt leren hoe LLM's werken > zat van “begin gewoon met lineaire algebra en kom over 5 jaar terug” > besluit mijn eigen roadmap te bouwen > geen onzin. geen omwegen. geen 200-uur durende generieke ML-afspeellijsten > alleen de dingen die je echt van “wat is een token?” naar “ik heb een mini-GPT getraind met LoRA-adapters en FlashAttention” brengen > doel: bouwen, fijn-tunen en verzenden van LLM's > niet alleen mee bezig zijn. niet "de theorie" voor altijd leren > ze bouwen > je zult: > > een autograd-engine vanaf nul bouwen > > een mini-GPT vanaf nul schrijven > > LoRA implementeren en een model fijn-tunen op echte data > > CUDA minstens één keer haten > > huilen > > doorgaan > 5 fasen > als je al iets weet? sla over > als je verdwaald bent? kijk opnieuw > als je vastzit? gebruik DeepResearch > dit is een roadmap, geen leiband > aan het einde: je hebt ofwel het ding gebouwd of je hebt het niet gedaan > fase 0: fundamenten > > als matrixvermenigvuldiging eng is, ben je nog niet klaar...