Detta bevis från ChatGPT är faktiskt häftigt och bortom vad jag trodde kunde lösas med en enda fråga till GPT Pro.
Jag undrar dock hur många Erdos-problem som kommer att följa av en sats av Erdos.
Jag har löst ett andra Erdos-problem (#281) med endast GPT 5.2 Pro – inga tidigare lösningar hittades.
Terence Tao kallar det "kanske det mest entydiga exemplet" på AI som löser ett öppet problem:
Nya forskningsstudier där spektralgradientmetoder (t.ex. Muon) hjälper till vid djupinlärning:
1. Vi identifierar en genomgripande form av ill-conditioning i DL: post-aktiveringsmatriser har låg-stabil rang.
2. Vi förklarar sedan varför spektrala metoder kan prestera väl trots detta.
Lång tråd
Under Simons LLM-program i höstas frågade @mahdisoltanol om detta är sant för distribution. p och q:
Dkl(p,q) · ∑i pi(pi−qi) ≤ ∑i pi · (pi−qi) ln(pi/qi)
Några av oss blev besatta av det bundna. Jag minns @jasondeanlee stannade uppe sent och letade efter motexempel.
GPT-5 Pro found a counterexample to the NICD-with-erasures majority optimality (Simons list, p.25).
At p=0.4, n=5, f(x) = sign(x_1-3x_2+x_3-x_4+3x_5) gives E|f(x)|=0.43024 vs best majority 0.42904.