这可能是2025年最令人不安的AI论文 ☠️ 科学家们刚刚证明,大型语言模型可以像人类因浏览垃圾内容而导致大脑腐烂一样,字面上让自己的大脑腐烂。 他们给模型输入了数月的病毒性Twitter数据,短小且高参与度的帖子,并观察它们的认知崩溃: - 推理能力下降了23% - 长期记忆下降了30% - 人格测试显示自恋和反社会人格的激增 而且即使在重新训练干净、高质量的数据后,损害也没有完全恢复。 这种表征的“腐烂”依然存在。 这不仅仅是坏数据 → 坏输出。 而是坏数据 → 永久的认知漂移。 AI版的无尽滚动是真实存在的。并且它已经在发生。 完整研究:llm-brain-rot. github. io