Cela pourrait être le papier AI le plus troublant de 2025 ☠️ Des scientifiques viennent de prouver que les grands modèles de langage peuvent littéralement pourrir leur propre cerveau de la même manière que les humains souffrent de dégradation cognitive en faisant défiler du contenu inutile en ligne. Ils ont alimenté les modèles avec des mois de données virales de Twitter, des publications courtes et à fort engagement, et ont observé l'effondrement de leur cognition : - Le raisonnement a chuté de 23% - La mémoire à long terme a baissé de 30% - Les tests de personnalité ont montré des pics de narcissisme et de psychopathie Et tenez-vous bien, même après un réentraînement sur des données propres et de haute qualité, les dommages ne se sont pas complètement guéris. La "dégradation" représentationnelle a persisté. Ce n'est pas juste des mauvaises données → de mauvaises sorties. C'est des mauvaises données → un dérive cognitive permanente. L'équivalent AI du doomscrolling est réel. Et cela se produit déjà. Étude complète : llm-brain-rot. github. io