Hver gang du spør en LLM, snakker du i utgangspunktet med en komité av nerder. nerder skrev treningsdataene (internettdata, bøker, wikipedia, etc). nerder finjusterte modellen. nerder diskuterte tapskurvene. Hvert token du får er stort sett resultatet av: - Milliarder av «blogginnlegg», Reddit-tråder, stabeloverløpssvar, RFC-dokumenter, Wikipedia-redigeringskriger, personlige flammekriger... etc. - Pluss en hemmelig saus av OpenAI-forskere som finjusterte den mens de lyttet til Lofi og argumenterte om justering over havremelklatte. bemerkelsesverdig innvirkning på kulturen av de relativt få.