We hebben zojuist het Smol Training Playbook gepubliceerd: een distillatie van hardverdiende kennis om precies te delen wat nodig is om SOTA LLM's te trainen ⚡️ Met onze protagonist SmolLM3 behandelen we: 🧭 Strategie over of je je eigen LLM moet trainen en al je VC-geld moet verbranden 🪨 Pretraining, oftewel het omzetten van een berg tekst in een fancy auto-completer 🗿 Hoe je basismodellen kunt vormen met post-training alchemie 🛠️ De onderliggende infrastructuur en hoe je jezelf uit NCCL-purgatorium kunt debuggen Hoogtepunten uit het hoofdstuk over post-training in de thread 👇