Tout le monde est obsédé par les grands : des dieux du cloud à un trillion de paramètres que nous appelons LLMs. Mais quelque chose de plus étrange se passe dans l'ombre. L'efficacité déraisonnable des petits modèles d'IA 🧵 🪡 1/6
Les petits modèles de langage (SLMs) fonctionnent localement, hors ligne et gratuitement. Ils tiennent sur une clé USB, consomment peu d'électricité et peuvent surpasser GPT-3 — le modèle qui a lancé cette ère — à 1/175 de sa taille. 2/6
LLaMA 3.2 (1B params) a obtenu 53,9 % sur MMLU — plus élevé que GPT-3 et vous pouvez l'exécuter sur un Raspberry Pi à 100 $. Donnez-lui une petite bibliothèque de référence (RAG), et il s'améliore encore. Vous regardez un esprit éduqué qui tient sur une clé USB. 4/6
3,24K