Esta prova pelo chatgpt é realmente interessante e além do que eu pensava que poderia ser resolvido por uma única consulta ao gpt pro.
Eu me pergunto, no entanto, quantos problemas de Erdos seguirão por um teorema de Erdos.
Resolvi um segundo problema de Erdos (#281) usando apenas o GPT 5.2 Pro - nenhuma solução anterior encontrada.
Terence Tao chama isso de "talvez a instância mais inequívoca" de IA resolvendo um problema em aberto:
Novos estudos em papel sobre quando os métodos de gradiente espectral (por exemplo, Muon) ajudam no aprendizado profundo:
1. Identificamos uma forma generalizada de má condicionamento em AP: as matrizes pós-ativação têm baixa estabilidade de posto.
2. Em seguida, explicamos por que os métodos espectrais podem ter um bom desempenho apesar disso.
Longa thread
Durante o programa LLM de Simons no outono passado, @mahdisoltanol perguntou se esta desigualdade é verdadeira para distribuições p e q:
Dₖₗ(p,q) · ∑ᵢ pᵢ(pᵢ−qᵢ) ≤ ∑ᵢ pᵢ · (pᵢ−qᵢ) ln(pᵢ/qᵢ)
Alguns de nós ficamos obcecados com o limite. Lembro que @jasondeanlee ficou acordado até tarde procurando contraexemplos.
GPT-5 Pro found a counterexample to the NICD-with-erasures majority optimality (Simons list, p.25).
At p=0.4, n=5, f(x) = sign(x_1-3x_2+x_3-x_4+3x_5) gives E|f(x)|=0.43024 vs best majority 0.42904.