これは、2025 ☠️ 年最も不穏な AI 論文かもしれません 科学者たちは、人間がオンラインでジャンク コンテンツをスクロールして脳を腐敗させるのと同じように、大規模な言語モデルが文字通り自分の脳を腐らせることができることを証明したばかりです。 彼らはモデルに数か月分のバイラルな Twitter データ、短くてエンゲージメントの高い投稿を与え、彼らの認知が崩壊するのを見ました。 - 推論は23%減少 - ロングコンテキストメモリが30%減少 - 性格検査では、ナルシシズムとサイコパスの急増が見られました そして、クリーンで高品質のデータで再トレーニングした後でも、損傷は完全には回復しませんでした。 表象の「腐敗」は持続した。 悪いデータ→悪い出力だけではありません。 それは悪いデータであり、永続的な認知→ドリフトです。 AIはドゥームスクロールに相当するものが現実です。そしてそれはすでに起こっています。 完全な研究: llm-脳腐敗。github です。イオ