Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Todos están obsesionados con los grandes: dioses de la nube de un billón de parámetros que llamamos LLMs. Pero algo más extraño está sucediendo en las sombras.
La Efectividad Irrazonable de los Modelos de IA Pequeños 🧵 🪡
1/6
Los Modelos de Lenguaje Pequeños (SLMs) funcionan localmente, sin conexión y son gratuitos.
Se pueden almacenar en una memoria USB, consumen poca electricidad y pueden superar a GPT-3 — el modelo que inició esta era — con 1/175 de su tamaño.
2/6

LLaMA 3.2 (1B params) obtuvo un 53.9% en MMLU — más alto que GPT-3 y puedes ejecutarlo en una Raspberry Pi de $100.
Dale una pequeña biblioteca de referencia (RAG), y mejora aún más.
Estás mirando una mente con educación universitaria que cabe en una memoria USB.
4/6
3,25K
Parte superior
Clasificación
Favoritos