Cette preuve par chatgpt est en fait géniale et au-delà de ce que je pensais pouvoir être résolu par une seule requête à gpt pro.
Je me demande cependant combien de problèmes d'Erdős suivront d'un théorème d'Erdős.
J'ai résolu un deuxième problème d'Erdős (#281) en utilisant uniquement GPT 5.2 Pro - aucune solution antérieure trouvée.
Terence Tao l'appelle "peut-être l'exemple le plus sans ambiguïté" d'une IA résolvant un problème ouvert :
De nouvelles études sur les méthodes de gradient spectral (par exemple, Muon) qui aident dans l'apprentissage profond :
1. Nous identifions une forme omniprésente de mauvaise condition dans l'apprentissage profond : les matrices post-activation ont un faible rang stable.
2. Nous expliquons ensuite pourquoi les méthodes spectrales peuvent bien fonctionner malgré cela.
Long fil
Lors du programme LLM de Simons l'automne dernier, @mahdisoltanol a demandé si cette inégalité est vraie pour les distributions p et q :
Dₖₗ(p,q) · ∑ᵢ pᵢ(pᵢ−qᵢ) ≤ ∑ᵢ pᵢ · (pᵢ−qᵢ) ln(pᵢ/qᵢ)
Quelques-uns d'entre nous sont devenus obsédés par cette borne. Je me souviens qu'@jasondeanlee est resté éveillé tard à la recherche de contre-exemples.
GPT-5 Pro found a counterexample to the NICD-with-erasures majority optimality (Simons list, p.25).
At p=0.4, n=5, f(x) = sign(x_1-3x_2+x_3-x_4+3x_5) gives E|f(x)|=0.43024 vs best majority 0.42904.