Актуальні теми
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Можливо, це найбільш тривожний документ про штучний інтелект 2025 ☠️ року
Вчені щойно довели, що великі мовні моделі можуть буквально гнити свій власний мозок так само, як люди отримують мозок від прокручування непотрібного контенту в Інтернеті.
Вони годували моделей місяцями вірусними даними в Twitter короткими постами з високим рівнем залученості та спостерігали, як їхнє пізнання руйнується:
- Аргументація впала на 23%
- Пам'ять з довгим контекстом впала на 30%
- Особистісні тести показали сплески нарцисизму та психопатії
І отримати це навіть після перенавчання на чистих, якісних даних, пошкодження не загоїлися повністю.
Репрезентативна «гниль» зберігалася.
Це не просто погані дані → поганий результат.
Це погані дані → постійного когнітивного дрейфу.
Еквівалент думскролінгу зі штучним інтелектом реальний. І це вже відбувається.
Повне вивчення: ллм-мозок-гниль. На github. ІО

Найкращі
Рейтинг
Вибране