Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Matt Turck
Lukasz o tym, jak nierównomierna jest wydajność modeli frontier:
„Można powiedzieć, że model jest niesamowity na olimpiadzie matematycznej. A jednocześnie mam uczennicę pierwszej klasy… ma pięć lat. Wziąłem jedno ćwiczenie z tej książki matematycznej i żaden z modeli frontier nie jest w stanie go rozwiązać.”
Zadanie? Dwie grupy kropek z jedną wspólną kropką, a ty pytasz, czy suma jest parzysta, czy nieparzysta.
„Fajną rzeczą jest to, że jeśli pozwolisz mu myśleć dłużej, może to w końcu rozwiązać… ale zajmuje to 15 minut. Ludzkie pięcioletnie dziecko zajmuje 15 sekund.”

Matt Turck12 godz. temu
Z okazji tygodnia Święta Dziękczynienia: epicka rozmowa na temat Frontier AI z @lukaszkaiser - współautorem „Attention Is All You Need” (Transformers) i wiodącym naukowcem badawczym w @OpenAI, pracującym nad modelami rozumowania z ery GPT-5.1.
00:00 – Zimne otwarcie i wprowadzenie
01:29 – „Spowolnienie AI” vs szalony tydzień nowych modeli na granicy
08:03 – Łatwe do zdobycia, infrastruktura, trening RL i lepsze dane
11:39 – Czym jest model rozumowania, w prostych słowach
17:02 – Chain-of-thought i trenowanie procesu myślenia z RL
21:39 – Ścieżka Łukasza: od logiki i Francji do Google i Kurzweila
24:20 – Wewnątrz historii Transformera i co naprawdę oznacza „uwaga”
28:42 – Z Google Brain do OpenAI: kultura, skala i GPU
32:49 – Co dalej z wstępnym treningiem, GPU i destylacją
37:29 – Czy nadal możemy zrozumieć te modele? Obwody, rzadkość i czarne skrzynki
39:42 – GPT-4 → GPT-5 → GPT-5.1: co się naprawdę zmieniło
42:40 – Po treningu, bezpieczeństwo i nauczanie GPT-5.1 różnych tonów
46:16 – Jak długo powinien myśleć GPT-5.1? Tokeny rozumowania i poszarpane zdolności
47:43 – Łamigłówka z kropkami pięciolatka, która wciąż łamie modele na granicy
52:22 – Generalizacja, dziecięce uczenie się i czy rozumowanie wystarczy
53:48 – Poza Transformerami: ARC, pomysły LeCuna i multimodalne wąskie gardła
56:10 – GPT-5.1 Codex Max, długoterminowe agenty i kompresja
1:00:06 – Czy modele podstawowe zjedzą większość aplikacji? Analogia tłumaczeniowa i zaufanie
1:02:34 – Co jeszcze trzeba rozwiązać i dokąd może zmierzać AI
2,2K
Najlepsze
Ranking
Ulubione

