Questa prova di chatgpt è davvero interessante e oltre a ciò che pensavo potesse essere risolto con una singola query a gpt pro.
Mi chiedo però quanti problemi di Erdos seguiranno da un teorema di Erdos.
Ho risolto un secondo problema di Erdos (#281) utilizzando solo GPT 5.2 Pro - nessuna soluzione precedente trovata.
Terence Tao lo definisce "forse l'istanza più inequivocabile" di AI che risolve un problema aperto:
Nuovo studio sui metodi di gradiente spettrale (ad es., Muon) che aiutano nel deep learning:
1. Identifichiamo una forma pervasiva di cattiva condizione nel DL: le matrici post-attivazione hanno un rango basso e instabile.
2. Spieghiamo quindi perché i metodi spettrali possono funzionare bene nonostante ciò.
Lunga discussione
Durante il programma LLM di Simons lo scorso autunno, @mahdisoltanol ha chiesto se questa disuguaglianza è vera per le distribuzioni p e q:
Dₖₗ(p,q) · ∑ᵢ pᵢ(pᵢ−qᵢ) ≤ ∑ᵢ pᵢ · (pᵢ−qᵢ) ln(pᵢ/qᵢ)
Alcuni di noi si sono ossessionati con il limite. Ricordo che @jasondeanlee è rimasto sveglio fino a tardi cercando controesempi.
GPT-5 Pro ha trovato un controesempio all'ottimalità della maggioranza NICD con cancellazioni (lista di Simons, p.25).
A p=0.4, n=5, f(x) = sign(x_1-3x_2+x_3-x_4+3x_5) dà E|f(x)|=0.43024 contro la migliore maggioranza 0.42904.