chaque fois que vous interrogez un llm, vous parlez en gros à un comité de nerds. des nerds ont écrit les données d'entraînement (données internet, livres, wikipedia, etc). des nerds ont affiné le modèle. des nerds ont débattu des courbes de perte. chaque jeton que vous obtenez est à peu près le résultat de : - des milliards de "billets de blog", de fils reddit, de réponses stack overflow, de documents rfc, de guerres d'édition wikipedia, de guerres personnelles de flammes… etc. - plus une sauce secrète de chercheurs openai qui l'ont affiné tout en écoutant du lofi et en débattant de l'alignement autour de lattes au lait d'avoine. un impact remarquable sur la culture par relativement peu.