Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Iedereen is geobsedeerd door de grote jongens: Trillion-parameter cloudgoden die we LLMs noemen. Maar er gebeurt iets vreemds in de schaduw.
De onredelijke effectiviteit van kleine AI-modellen 🧵 🪡
1/6
Kleine taalmodellen (SLM's) draaien lokaal, offline en gratis.
Ze passen op een flashdrive, verbruiken weinig elektriciteit en kunnen GPT-3 — het model dat dit tijdperk lanceerde — overtreffen bij 1/175e van zijn grootte.
2/6

LLaMA 3.2 (1B parameters) scoorde 53,9% op MMLU — hoger dan GPT-3 en je kunt het draaien op een $100 Raspberry Pi.
Geef het een kleine referentiebibliotheek (RAG), en het verbetert opnieuw.
Je kijkt naar een universitair opgeleide geest die op een thumb drive past.
4/6
3,25K
Boven
Positie
Favorieten