elke keer dat je een llm vraagt, praat je eigenlijk met een commissie van nerds. nerds schreven de trainingsdata (internetdata, boeken, wikipedia, enz.). nerds hebben het model fijn afgestemd. nerds debatteerden over de verliescurves. every token die je krijgt is eigenlijk de output van: - miljarden "blogposts", reddit-threads, stack overflow-antwoorden, rfc-documenten, wikipedia-editoorlogs, persoonlijke vlamoorlogen… enz. - plus een geheime saus van openai-onderzoekers die het fijnstelden terwijl ze naar lofi luisterden en discussieerden over alignment met oat milk lattes. opmerkelijke impact op de cultuur door de relatief weinigen.