Можливо, це найбільш тривожний документ про штучний інтелект 2025 ☠️ року Вчені щойно довели, що великі мовні моделі можуть буквально гнити свій власний мозок так само, як люди отримують мозок від прокручування непотрібного контенту в Інтернеті. Вони годували моделей місяцями вірусними даними в Twitter короткими постами з високим рівнем залученості та спостерігали, як їхнє пізнання руйнується: - Аргументація впала на 23% - Пам'ять з довгим контекстом впала на 30% - Особистісні тести показали сплески нарцисизму та психопатії І отримати це навіть після перенавчання на чистих, якісних даних, пошкодження не загоїлися повністю. Репрезентативна «гниль» зберігалася. Це не просто погані дані → поганий результат. Це погані дані → постійного когнітивного дрейфу. Еквівалент думскролінгу зі штучним інтелектом реальний. І це вже відбувається. Повне вивчення: ллм-мозок-гниль. На github. ІО