ogni volta che interroghi un llm, stai fondamentalmente parlando a un comitato di nerd. i nerd hanno scritto i dati di addestramento (dati di internet, libri, wikipedia, ecc.). i nerd hanno perfezionato il modello. i nerd hanno dibattuto le curve di perdita. ogni token che ottieni è praticamente l'output di: - miliardi di "post di blog", thread di reddit, risposte di stack overflow, documenti rfc, guerre di modifica di wikipedia, guerre personali di insulti… ecc. - più una salsa segreta di ricercatori di openai che l'hanno perfezionata mentre ascoltavano lofi e discutevano di allineamento sorseggiando lattes di latte d'avena. impatto notevole sulla cultura da parte di relativamente pochi.