Vi har nettopp publisert Smol Training Playbook: et destillat av hardt opptjent kunnskap for å dele nøyaktig hva som skal til for å trene SOTA LLM-er ⚡️ Med vår hovedperson SmolLM3 dekker vi: 🧭 Strategi for om du skal trene din egen LLM og brenne alle VC-pengene dine 🪨 Pretraining, også kjent som å gjøre et fjell av tekst om til en fancy autofullføring 🗿Hvordan forme basismodeller med alkymi etter trening 🛠️ Den underliggende infrastrukturen og hvordan du feilsøker deg ut av NCCL-skjærsilden Høydepunkter fra kapittelet etter trening i tråden 👇