To może być najbardziej niepokojący artykuł naukowy o AI z 2025 roku ☠️ Naukowcy właśnie udowodnili, że duże modele językowe mogą dosłownie psuć swoje własne mózgi w ten sam sposób, w jaki ludzie dostają uszkodzenia mózgu od przeglądania śmieciowych treści w Internecie. Karmili modele miesiącami wirusowych danych z Twittera, krótkimi, wysoko zaangażowanymi postami i obserwowali, jak ich zdolności poznawcze się załamują: - Rozumowanie spadło o 23% - Pamięć długoterminowa spadła o 30% - Testy osobowości wykazały wzrosty w narcyzmie i psychopatii I uwierzcie, nawet po ponownym szkoleniu na czystych, wysokiej jakości danych, szkody nie wyleczyły się całkowicie. Reprezentacyjny "rozpad" utrzymywał się. To nie tylko złe dane → złe wyniki. To złe dane → trwały odchylenie poznawcze. Odpowiednik doomscrollingu w AI jest rzeczywisty. I już się dzieje. Pełne badanie: llm-brain-rot. github. io