Grote taalmodellen hebben moeite met virale sociale media-gegevens.
Maanden van blootstelling hebben 23% van hun redeneervermogen en 30% van hun geheugen gekost. Deze modellen rotten van binnenuit.
@alex_prompter werpt een licht op de achteruitgang
Dit zou wel eens het meest verontrustende AI-artikel van 2025 kunnen zijn ☠️
Wetenschappers hebben net bewezen dat grote taalmodellen letterlijk hun eigen hersenen kunnen laten rotten op dezelfde manier als mensen hersenrot krijgen van het scrollen door junkinhoud online.
Ze hebben modellen maandenlang van virale Twitterdata gevoed met korte, hoog-engagement berichten en zagen hun cognitie instorten:
- Redenering viel met 23%
- Langdurig geheugen daalde met 30%
- Persoonlijkheidstests toonden pieken in narcisme en psychopathie
En dit, zelfs na hertraining op schone, hoogwaardige data, genas de schade niet volledig.
De representatieve "rot" bleef bestaan.
Het is niet alleen slechte data → slechte output.
Het is slechte data → permanente cognitieve afwijking.
De AI-equivalent van doomscrolling is echt. En het gebeurt al.
Volledige studie: llm-brain-rot. github. io
Jouw "crypto Bloomberg" is een dode dinosaurus. 🦖
Jouw AI-chatbot leest gewoon zijn gefossiliseerde rapporten.
Echte alpha-bewegingen op live ketens. @Surf_Copilot denkt met hen mee.
Stop met het lezen van geschiedenis. Begin met het voorspellen van de toekomst.
De "Bloomberg voor crypto" pitch is pure cope. 🤡
Jouw AI ziet alleen tekst. Het mist de on-chain beweging van de walvis, het verborgen signaal van de oprichter.
Dat is alsof je een bibliothecaris vraagt om een live straatgevecht te analyseren. Ze kennen alleen de regels.
@Surf_Copilot toont aan dat systemen die echt redeneren op basis van data zullen winnen.