ChatGPT tarafından yapılan bu kanıt aslında güzel ve gpt pro'ya tek bir sorgulamayla çözülebileceğini düşündüğümün ötesinde.
Yine de merak ediyorum, Erdos teoremi kaç Erdos probleminin ardından gelecek.
İkinci bir Erdos problemini (#281) sadece GPT 5.2 Pro ile çözdüm - önceden hiçbir çözüm bulunamadı.
Terence Tao, bunu yapay zekanın açık bir problemi çözdüğü "belki de en açık örnek" olarak nitelendiriyor:
Yeni makaleler, spektral gradyan yöntemlerinin (örneğin Muon) derin öğrenmeye yardımcı olduğunu inceliyor:
1. DL'de yaygın bir kötü koşullandırma biçimi tespit ediyoruz: aktivasyon sonrası matrisler düşük-stabil derecededir.
2. Sonra spektral yöntemlerin buna rağmen neden iyi performans gösterebileceğini açıklıyoruz.
Uzun iplik
Geçen sonbaharda Simons LLM programı sırasında @mahdisoltanol, bu ineq'in dağıtım için doğru olup olmadığını sordu. P ve Q:
Dkl(p,q) · ∑i pi(pi−qi) ≤ ∑i pi · (pi−qi) ln(pi/qi)
Birkaçımız sınıra takıntılı hale geldik. Karşı örnekler aramak için geç saatlere kadar uyanık @jasondeanlee hatırlıyorum.
GPT-5 Pro found a counterexample to the NICD-with-erasures majority optimality (Simons list, p.25).
At p=0.4, n=5, f(x) = sign(x_1-3x_2+x_3-x_4+3x_5) gives E|f(x)|=0.43024 vs best majority 0.42904.