Dieser Beweis von ChatGPT ist tatsächlich beeindruckend und über das hinaus, was ich dachte, dass es mit einer einzigen Anfrage an GPT Pro gelöst werden könnte.
Ich frage mich jedoch, wie viele Erdos-Probleme durch einen Satz von Erdos folgen werden.
Ich habe ein zweites Erdos-Problem (#281) nur mit GPT 5.2 Pro gelöst - keine vorherigen Lösungen gefunden.
Terence Tao nennt es "vielleicht das eindeutigste Beispiel" dafür, dass KI ein offenes Problem löst:
Neue Studien zeigen, wann spektrale Gradientenmethoden (z. B. Muon) im Deep Learning helfen:
1. Wir identifizieren eine weit verbreitete Form von Schlechtbedingungen im DL: Post-Aktivierungs-Matrizen haben einen niedrig stabilen Rang.
2. Wir erklären dann, warum spektrale Methoden trotz dieser Umstände gut abschneiden können.
Langer Thread
Während Simons LLM-Programm im letzten Herbst fragte @mahdisoltanol, ob diese Ungleichung für die Verteilungen p und q wahr ist:
Dₖₗ(p,q) · ∑ᵢ pᵢ(pᵢ−qᵢ) ≤ ∑ᵢ pᵢ · (pᵢ−qᵢ) ln(pᵢ/qᵢ)
Einige von uns waren besessen von der Schranke. Ich erinnere mich, dass @jasondeanlee bis spät in die Nacht nach Gegenbeispielen suchte.
GPT-5 Pro hat ein Gegenbeispiel zur Mehrheitsoptimalität von NICD mit Löschungen gefunden (Simons Liste, S. 25).
Bei p=0.4, n=5, f(x) = sign(x_1-3x_2+x_3-x_4+3x_5) ergibt E|f(x)|=0.43024 im Vergleich zur besten Mehrheit 0.42904.