Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Een opwindende nieuwe cursus: Fijn-tuning en Versterkend Leren voor LLM's: Introductie tot Post-training, gegeven door @realSharonZhou, VP van AI bij @AMD. Nu beschikbaar op .
Post-training is de sleuteltechniek die door grenslaboratoria wordt gebruikt om een basis LLM - een model dat is getraind op enorme ongelabelde tekst om het volgende woord/token te voorspellen - om te zetten in een nuttige, betrouwbare assistent die instructies kan opvolgen. Ik heb ook veel toepassingen gezien waarbij post-training is wat een demo-applicatie die slechts 80% van de tijd werkt, omzet in een betrouwbaar systeem dat consistent presteert. Deze cursus leert je de belangrijkste post-trainingstechnieken!
In deze cursus van 5 modules leidt Sharon je door de complete post-training pipeline: gesuperviseerde fijn-tuning, beloningsmodellering, RLHF en technieken zoals PPO en GRPO. Je leert ook hoe je LoRA kunt gebruiken voor efficiënte training en hoe je evaluaties ontwerpt die problemen vóór en na de implementatie opsporen.
Vaardigheden die je zult ontwikkelen:
- Toepassen van gesuperviseerde fijn-tuning en versterkend leren (RLHF, PPO, GRPO) om modellen af te stemmen op gewenste gedragingen
- Gebruik LoRA voor efficiënte fijn-tuning zonder het hele model opnieuw te trainen
- Voorbereiden van datasets en genereren van synthetische data voor post-training
- Begrijpen hoe je LLM-productiepijplijnen kunt bedienen, met go/no-go beslissingspunten en feedbackloops
Deze geavanceerde methoden zijn niet langer beperkt tot grens-AI-laboratoria, en je kunt ze nu in je eigen toepassingen gebruiken.
Leer hier:
Boven
Positie
Favorieten

