Всі одержимі великими хлопцями: хмарними богами з трильйонними параметрами, яких ми називаємо LLM. Але в тіні відбувається щось дивне. Необґрунтована ефективність крихітних моделей 🧵 🪡 штучного інтелекту 1/6
Моделі малої мови (SLM) працюють локально, офлайн і безкоштовно. Вони поміщаються на флешку, сьорбають електрику і можуть перевершити GPT-3 — модель, яка започаткувала цю еру — на 1/175 свого розміру. 2/6
LLaMA 3.2 (1B параметрів) набрав 53,9% на MMLU — вище, ніж GPT-3, і ви можете запустити його на Raspberry Pi за 100 доларів. Дайте йому маленьку довідкову бібліотеку (RAG), і він знову покращиться. Ви дивитеся на розум з вищою освітою, який вміщується на флеш-накопичувачі. 4/6
3,24K