Este podría ser el artículo de IA más perturbador de 2025 ☠️ Los científicos acaban de demostrar que los modelos de lenguaje grandes pueden literalmente pudrirse el cerebro de la misma manera que los humanos sufren de pudrición cerebral al desplazarse por contenido basura en línea. Alimentaron a los modelos con meses de datos virales de Twitter, publicaciones cortas y de alta participación, y observaron cómo colapsaba su cognición: - El razonamiento cayó un 23% - La memoria a largo plazo disminuyó un 30% - Las pruebas de personalidad mostraron picos en narcisismo y psicopatía Y escuchen esto: incluso después de reentrenar con datos limpios y de alta calidad, el daño no se curó por completo. La "pudrición" representacional persistió. No es solo datos malos → salida mala. Es datos malos → deriva cognitiva permanente. El equivalente de IA al doomscrolling es real. Y ya está sucediendo. Estudio completo: llm-brain-rot. github. io