Todos están obsesionados con los grandes: dioses de la nube de un billón de parámetros que llamamos LLMs. Pero algo más extraño está sucediendo en las sombras. La Efectividad Irrazonable de los Modelos de IA Pequeños 🧵 🪡 1/6
Los Modelos de Lenguaje Pequeños (SLMs) funcionan localmente, sin conexión y son gratuitos. Se pueden almacenar en una memoria USB, consumen poca electricidad y pueden superar a GPT-3 — el modelo que inició esta era — con 1/175 de su tamaño. 2/6
LLaMA 3.2 (1B params) obtuvo un 53.9% en MMLU — más alto que GPT-3 y puedes ejecutarlo en una Raspberry Pi de $100. Dale una pequeña biblioteca de referencia (RAG), y mejora aún más. Estás mirando una mente con educación universitaria que cabe en una memoria USB. 4/6
3,25K