Duże modele językowe mają problemy z danymi z wirusowych mediów społecznościowych.
Miesiące ekspozycji spowodowały 23% spadek w ich rozumowaniu, 30% w pamięci. Te modele gniją od środka.
@alex_prompter rzuca światło na ten proces rozkładu
To może być najbardziej niepokojący artykuł naukowy o AI z 2025 roku ☠️
Naukowcy właśnie udowodnili, że duże modele językowe mogą dosłownie psuć swoje własne mózgi w ten sam sposób, w jaki ludzie dostają uszkodzenia mózgu od przeglądania śmieciowych treści w Internecie.
Karmili modele miesiącami wirusowych danych z Twittera, krótkimi, wysoko zaangażowanymi postami i obserwowali, jak ich zdolności poznawcze się załamują:
- Rozumowanie spadło o 23%
- Pamięć długoterminowa spadła o 30%
- Testy osobowości wykazały wzrosty w narcyzmie i psychopatii
I uwierzcie, nawet po ponownym szkoleniu na czystych, wysokiej jakości danych, szkody nie wyleczyły się całkowicie.
Reprezentacyjny "rozpad" utrzymywał się.
To nie tylko złe dane → złe wyniki.
To złe dane → trwały odchylenie poznawcze.
Odpowiednik doomscrollingu w AI jest rzeczywisty. I już się dzieje.
Pełne badanie: llm-brain-rot. github. io
Twój "crypto Bloomberg" to martwy dinozaur. 🦖
Twój chatbot AI tylko przegląda jego skamieniałe raporty.
Prawdziwe ruchy alfa na żywych łańcuchach. @Surf_Copilot myśli z nimi.
Przestań czytać historię. Zacznij przewidywać przyszłość.
Prezentacja "Bloomberg dla kryptowalut" to czysta iluzja. 🤡
Twoje AI widzi tylko tekst. Przegapia ruchy wielorybów w łańcuchu, ukryte sygnały założycieli.
To tak, jakby prosić bibliotekarza o analizę walki ulicznej na żywo. Oni znają tylko zasady.
@Surf_Copilot pokazuje, że systemy, które naprawdę rozumieją dane, wygrają.