Актуальні теми
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Всі одержимі великими хлопцями: хмарними богами з трильйонними параметрами, яких ми називаємо LLM. Але в тіні відбувається щось дивне.
Необґрунтована ефективність крихітних моделей 🧵 🪡 штучного інтелекту
1/6
Моделі малої мови (SLM) працюють локально, офлайн і безкоштовно.
Вони поміщаються на флешку, сьорбають електрику і можуть перевершити GPT-3 — модель, яка започаткувала цю еру — на 1/175 свого розміру.
2/6

LLaMA 3.2 (1B параметрів) набрав 53,9% на MMLU — вище, ніж GPT-3, і ви можете запустити його на Raspberry Pi за 100 доларів.
Дайте йому маленьку довідкову бібліотеку (RAG), і він знову покращиться.
Ви дивитеся на розум з вищою освітою, який вміщується на флеш-накопичувачі.
4/6
3,24K
Найкращі
Рейтинг
Вибране