Большие языковые модели задыхаются от вирусных данных социальных сетей.
Месяцы воздействия снизили их способность к рассуждению на 23%, а память — на 30%. Эти модели гниют изнутри.
@alex_prompter проливает свет на этот упадок
Это может быть самая тревожная статья об ИИ 2025 года ☠️
Ученые только что доказали, что большие языковые модели могут буквально гнить свои собственные мозги так же, как люди получают "мозговую гниль" от пролистывания мусорного контента в интернете.
Они кормили модели месяцами вирусными данными из Twitter, короткими постами с высоким уровнем вовлеченности, и наблюдали, как их когнитивные способности рушатся:
- Способности к рассуждению упали на 23%
- Долгосрочная память снизилась на 30%
- Тесты на личность показали всплески нарциссизма и психопатии
И вот что: даже после повторного обучения на чистых, качественных данных, ущерб не полностью зажил.
Представительная "гниль" сохранилась.
Это не просто плохие данные → плохой результат.
Это плохие данные → постоянное когнитивное отклонение.
Эквивалент "долгого пролистывания" для ИИ реален. И это уже происходит.
Полное исследование: llm-brain-rot. github. io
Ваш "крипто Bloomberg" — мертвый динозавр. 🦖
Ваш AI чат-бот просто читает его окаменелые отчеты.
Настоящие альфа-движения происходят на живых цепочках. @Surf_Copilot думает с ними.
Перестаньте читать историю. Начните предсказывать будущее.
Питч "Bloomberg для крипты" — это чистая отговорка. 🤡
Ваш ИИ видит только текст. Он упускает движение китов в блокчейне, скрытые сигналы основателей.
Это все равно что просить библиотекаря проанализировать уличную драку. Они знают только правила.
@Surf_Copilot показывает, что системы, которые действительно рассуждают на основе данных, победят.