Tokenizarea este doar un caz special de "fragmentare" - construirea datelor de nivel scăzut în abstracțiuni de nivel înalt - care este, la rândul său, fundamentală pentru inteligență. Noua noastră arhitectură, care permite *fragmentarea dinamică* ierarhică, nu numai că nu are tokenizer, ci pur și simplu se scalează mai bine.
Sukjun (June) Hwang
Sukjun (June) Hwang12 iul. 2025
Tokenizarea a fost ultima barieră în calea modelelor de limbaj cu adevărat end-to-end. Am dezvoltat H-Net: o rețea ierarhică care înlocuiește tokenizarea cu un proces dinamic de fragmentare direct în interiorul modelului, descoperind și operând automat pe unități semnificative de date
Acesta a fost un proiect incredibil de important pentru mine - am vrut să-l rezolv de ani de zile, dar habar nu aveam cum. Toate acestea au fost @sukjun_hwang și munca uimitoare a @fluorane! Am scris despre povestea dezvoltării sale și despre ceea ce ar putea urma în continuare. The H-Net:
194,79K