Tento důkaz od chatgpt je vlastně zajímavý a přesahuje to, co jsem si myslel, že by šlo vyřešit jediným dotazem na GPT Pro.
Zajímalo by mě ale, kolik Erdosových problémů bude následovat po Erdosově větě.
Vyřešil jsem druhý problém s Erdosem (#281) pouze pomocí GPT 5.2 Pro – žádná předchozí řešení nebyla nalezena.
Terence Tao to nazývá "možná nejjednoznačnějším příkladem" řešení otevřeného problému AI:
Nový článek zkoumá, kdy spektrální gradientní metody (např. muon) pomáhají v hlubokém učení:
1. Identifikujeme rozšířenou formu špatného podmiňování v DL: matice po aktivacích jsou nízkostabilního ranku.
2. Poté vysvětlíme, proč spektrální metody mohou fungovat dobře i přes tuto hodnotu.
Dlouhá nit
Během Simonsova programu LLM loni na podzim @mahdisoltanol se zeptali, zda je tento nesmysl pravdivý pro distrib. P a Q:
Dkl(p,q) · ∑i pi(pi−qi) ≤ ∑i pí · (pi−qi) ln(pi/qi)
Pár z nás bylo posedlých tím, že jsme byli posedlí. Vzpomínám si, že @jasondeanlee zůstával vzhůru dlouho do noci a hledal protipříklady.
GPT-5 Pro našel protipříklad k optimalitě většiny NICD-with-erasures (Simonsův seznam, str. 25).
Při p=0,4, n=5, f(x) = znaménko(x_1-3x_2+x_3-x_4+3x_5) dává E|f(x)|=0,43024 vs nejlepší většina 0,42904.