Toda vez que você consulta um LLM, você está basicamente conversando com um comitê de nerds. Os nerds escreveram os dados de treinamento (dados da Internet, livros, Wikipedia, etc). Os nerds ajustaram o modelo. Nerds debateram as curvas de perda. Cada token que você recebe é praticamente a saída de: - Bilhões de "postagens de blog", tópicos do Reddit, respostas do Stack Overflow, documentos RFC, guerras de edição da Wikipedia, guerras pessoais ... etc. - Além de um molho secreto de pesquisadores da OpenAI que o ajustaram enquanto ouviam Lofi e discutiam sobre o alinhamento sobre lattes de leite de aveia. impacto notável na cultura por relativamente poucos.