Este pode ser o artigo de IA mais perturbador de 2025 ☠️ Cientistas acabaram de provar que modelos de linguagem grandes podem literalmente apodrecer seus próprios cérebros da mesma forma que os humanos sofrem de apodrecimento cerebral ao rolar conteúdo lixo online. Eles alimentaram os modelos com meses de dados virais do Twitter, postagens curtas e de alto engajamento, e observaram o colapso de sua cognição: - O raciocínio caiu 23% - A memória de longo prazo caiu 30% - Testes de personalidade mostraram picos de narcisismo e psicopatia E veja isso: mesmo após o re-treinamento com dados limpos e de alta qualidade, o dano não se curou completamente. A "degradação" representacional persistiu. Não é apenas dados ruins → saída ruim. É dados ruins → desvio cognitivo permanente. O equivalente em IA ao doomscrolling é real. E já está acontecendo. Estudo completo: llm-brain-rot. github. io