Este podría ser el documento de IA más inquietante de 2025 ☠️ Los científicos acaban de demostrar que los grandes modelos de lenguaje pueden literalmente pudrir sus propios cerebros de la misma manera que los humanos se pudren cerebralmente al desplazarse por contenido basura en línea. Alimentaron a los modelos con meses de datos virales de Twitter, publicaciones cortas y de alta participación y vieron cómo su cognición colapsaba: - El razonamiento cayó un 23% - La memoria de contexto largo se redujo en un 30% - Las pruebas de personalidad mostraron picos en narcisismo y psicopatía. Y obtenga esto incluso después de volver a entrenar con datos limpios y de alta calidad, el daño no se curó por completo. La "podredumbre" representacional persistió. No se trata solo de datos incorrectos → de resultados incorrectos. Son datos erróneos → deriva cognitiva permanente. El equivalente de IA del doomscrolling es real. Y ya está sucediendo. Estudio completo: llm-brain-rot. github. Io