Această demonstrație făcută de chatgpt este de fapt interesantă și dincolo de ceea ce credeam că ar putea fi rezolvat printr-o singură interogare către gpt pro.
Totuși, mă întreb câte probleme Erdos vor urma de o teoremă a lui Erdos.
Am rezolvat o a doua problemă Erdos (#281) folosind doar GPT 5.2 Pro - nu s-au găsit soluții anterioare.
Terence Tao o numește "poate cel mai clar exemplu" de AI care rezolvă o problemă deschisă:
Noi studii studiază atunci când metodele cu gradient spectral (de exemplu, Muon) ajută la învățarea profundă:
1. Identificăm o formă omniprezentă de condiționare proastă în DL: matricile post-activări au rang scăzut-stabil.
2. Explicăm apoi de ce metodele spectrale pot funcționa bine în ciuda acestui fapt.
Fir lung
În timpul programului Simons LLM din toamna trecută, @mahdisoltanol întrebat dacă acest ineq este adevărat pentru distribuție. P și Q:
Dkl(p,q) · ∑i pi(pi−qi) ≤ ∑i pi · (pi−qi) ln(pi/qi)
Câțiva dintre noi au devenit obsedați de legătură. Îmi amintesc că @jasondeanlee stăteam până târziu căutând contraexemple.
GPT-5 Pro a găsit un contraexemplu pentru optimalitatea majorității NICD cu ștergeri (lista Simons, p.25).
La p=0.4, n=5, f(x) = sign(x_1-3x_2+x_3-x_4+3x_5) dă E|f(x)|=0.43024 vs cea mai bună majoritate 0.42904.