cada vez que consultas um llm, estás basicamente a falar com um comitê de nerds. nerds escreveram os dados de treino (dados da internet, livros, wikipedia, etc). nerds ajustaram o modelo. nerds debateram as curvas de perda. todo token que recebes é praticamente a saída de: - bilhões de "posts de blog", threads do reddit, respostas do stack overflow, documentos rfc, guerras de edição da wikipedia, guerras pessoais de insultos… etc. - mais um molho secreto de investigadores da openai que o ajustaram enquanto ouviam lofi e discutiam sobre alinhamento enquanto tomavam lattes de leite de aveia. impacto notável na cultura por parte dos relativamente poucos.