Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Tout le monde est obsédé par les grands : des dieux du cloud à un trillion de paramètres que nous appelons LLMs. Mais quelque chose de plus étrange se passe dans l'ombre.
L'efficacité déraisonnable des petits modèles d'IA 🧵 🪡
1/6
Les petits modèles de langage (SLMs) fonctionnent localement, hors ligne et gratuitement.
Ils tiennent sur une clé USB, consomment peu d'électricité et peuvent surpasser GPT-3 — le modèle qui a lancé cette ère — à 1/175 de sa taille.
2/6

LLaMA 3.2 (1B params) a obtenu 53,9 % sur MMLU — plus élevé que GPT-3 et vous pouvez l'exécuter sur un Raspberry Pi à 100 $.
Donnez-lui une petite bibliothèque de référence (RAG), et il s'améliore encore.
Vous regardez un esprit éduqué qui tient sur une clé USB.
4/6
3,24K
Meilleurs
Classement
Favoris