這可能是2025年最令人不安的AI論文☠️ 科學家剛剛證明,大型語言模型可以像人類因為瀏覽垃圾內容而導致大腦腐爛一樣,字面上讓自己的大腦腐爛。 他們給模型餵了數月的病毒性Twitter數據,短小且高互動的帖子,並觀察它們的認知崩潰: - 推理下降了23% - 長期記憶下降了30% - 人格測試顯示自戀和精神病的指數上升 而且即使在重新訓練於乾淨、高質量的數據後,損害也沒有完全癒合。 代表性的“腐爛”持續存在。 這不僅僅是壞數據→壞輸出。 這是壞數據→永久的認知漂移。 AI版的無盡滾動是真實的。而且這已經在發生。 完整研究:llm-brain-rot.github.io