Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Matt Turck
Lukasz su quanto sia davvero frastagliata la performance del modello frontier:
"Puoi dire che il modello è straordinario alle Olimpiadi matematiche. E allo stesso tempo, ho una bambina di prima elementare... ha cinque anni. Ho preso un esercizio da questo libro di matematica e nessuno dei modelli frontier è in grado di risolverlo."
Il compito? Due gruppi di punti con un punto condiviso, e chiedi se il totale è pari o dispari.
"La cosa bella è che se lo lasci pensare più a lungo, potrebbe effettivamente risolverlo... ma ci vogliono 15 minuti. Un bambino di cinque anni ci mette 15 secondi."

Matt Turck19 ore fa
Trattamento della settimana del Ringraziamento: una conversazione epica su Frontier AI con @lukaszkaiser - co-autore di “Attention Is All You Need” (Transformers) e principale ricercatore presso @OpenAI che lavora sui modelli di ragionamento dell'era GPT-5.1.
00:00 – Apertura e introduzione
01:29 – “Rallentamento dell'AI” vs una settimana selvaggia di nuovi modelli di frontiera
08:03 – Frutti a portata di mano, infrastruttura, addestramento RL e dati migliori
11:39 – Cos'è un modello di ragionamento, in parole semplici
17:02 – Catena di pensiero e addestramento del processo di pensiero con RL
21:39 – Il percorso di Łukasz: dalla logica e dalla Francia a Google e Kurzweil
24:20 – Dentro la storia del Transformer e cosa significa davvero “attenzione”
28:42 – Da Google Brain a OpenAI: cultura, scala e GPU
32:49 – Cosa c'è in serbo per il pre-addestramento, GPU e distillazione
37:29 – Possiamo ancora comprendere questi modelli? Circuiti, scarsità e scatole nere
39:42 – GPT-4 → GPT-5 → GPT-5.1: cosa è realmente cambiato
42:40 – Post-addestramento, sicurezza e insegnare a GPT-5.1 toni diversi
46:16 – Quanto tempo dovrebbe pensare GPT-5.1? Token di ragionamento e abilità irregolari
47:43 – Il puzzle dei punti del bambino di cinque anni che continua a rompere i modelli di frontiera
52:22 – Generalizzazione, apprendimento infantile e se il ragionamento sia sufficiente
53:48 – Oltre i Transformers: ARC, idee di LeCun e colli di bottiglia multimodali
56:10 – GPT-5.1 Codex Max, agenti a lungo termine e compattazione
1:00:06 – I modelli fondazionali mangeranno la maggior parte delle app? L'analogia della traduzione e fiducia
1:02:34 – Cosa deve ancora essere risolto e dove potrebbe andare l'AI dopo
2,64K
Principali
Ranking
Preferiti

