Актуальні теми
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Подарунок на тиждень подяки: епічна розмова про Frontier AI з @lukaszkaiser -співавтором книги «Attention Is All You Need» (Transformers) та провідним науковцем @OpenAI, що працює над моделями мислення епохи GPT-5.1.
00:00 – Холодний початок і вступ
01:29 – «Уповільнення ШІ» проти дикого тижня нових моделей Frontier
08:03 – Легкодоступні результати, інфраструктура, навчання RL та кращі дані
11:39 – Що таке модель мислення, простими словами
17:02 – Ланцюг думок і тренування мислення з RL
21:39 – Шлях Лукаша: від логіки і Франції до Google і Kurzweil
24:20 – Історія всередині трансформера і що насправді означає «увага»
28:42 – Від Google Brain до OpenAI: культура, масштаб і GPU
32:49 – Що далі з попереднім навчанням, GPU та дистиляцією
37:29 – Чи можемо ми ще зрозуміти ці моделі? Кола, розрідженість і чорні скриньки
39:42 – GPT-4 → GPT-5 → GPT-5.1: що насправді змінилося
42:40 – Післятренінг, безпека та навчання GPT-5.1 різним тонам
46:16 – Скільки часу має думати GPT-5.1? Жетони розуму та зубчасті здібності
47:43 – Головоломка з крапками п'ятирічного, яка досі ламає моделі на фронтирі
...
Найкращі
Рейтинг
Вибране

