Suuret kielimallit tukehtuvat sosiaalisen median viraalitietoihin.
Kuukausien altistuminen vei 23 % pois heidän päättelystään, 30 % muistista. Nämä mallit mätänevät sisältäpäin.
@alex_prompter valaisee rappeutumista
This might be the most disturbing AI paper of 2025 ☠️
Scientists just proved that large language models can literally rot their own brains the same way humans get brain rot from scrolling junk content online.
They fed models months of viral Twitter data short, high-engagement posts and watched their cognition collapse:
- Reasoning fell by 23%
- Long-context memory dropped 30%
- Personality tests showed spikes in narcissism & psychopathy
And get this even after retraining on clean, high-quality data, the damage didn’t fully heal.
The representational “rot” persisted.
It’s not just bad data → bad output.
It’s bad data → permanent cognitive drift.
The AI equivalent of doomscrolling is real. And it’s already happening.
Full study: llm-brain-rot. github. io
"Krypto-Bloombergisi" on kuollut dinosaurus. 🦖
AI-chatbotisi lukee vain kivettyneitä raporttejaan.
Todellinen alfa liikkuu elävissä ketjuissa. @Surf_Copilot ajattelee heidän kanssaan.
Lopeta historian lukeminen. Aloita tulevaisuuden ennustaminen.
"Bloomberg for crypto" -pitch on puhdasta selviytymistä. 🤡
Tekoälysi näkee vain tekstin. Se kaipaa valaan liikettä ketjussa, perustajan piilotettua signaalia.
Se on kirjastonhoitajan pyytämistä analysoimaan elävää katutaistelua. He tuntevat vain säännöt.
@Surf_Copilot osoittaa, että järjestelmät, jotka todella järkeilevät datan perusteella, voittavat.