Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Toată lumea este obsedată de băieții mari: zei nori de trilioane de parametri pe care îi numim LLM. Dar ceva mai ciudat se întâmplă în umbră.
Eficacitatea nerezonabilă a modelelor 🧵 🪡 AI minuscule
1/6
Modelele lingvistice mici (SLM) rulează local, offline și gratuit.
Se potrivesc pe o unitate flash, sorbesc electricitate și pot depăși GPT-3 - modelul care a lansat această eră - la 1/175 din dimensiunea sa.
2/6

LLaMA 3.2 (parametri 1B) a obținut un scor de 53.9% pe MMLU - mai mare decât GPT-3 și îl puteți rula pe un Raspberry Pi de 100 USD.
Dați-i o mică bibliotecă de referință (RAG) și se îmbunătățește din nou.
Te uiți la o minte cu studii superioare care încape pe o unitate de memorie.
4/6
3,54K
Limită superioară
Clasament
Favorite