Chứng minh này bởi chatgpt thực sự rất tuyệt và vượt xa những gì tôi nghĩ có thể được giải quyết bằng một truy vấn đơn giản đến gpt pro.
Tôi tự hỏi liệu có bao nhiêu bài toán Erdos sẽ theo sau một định lý của Erdos.
Tôi đã giải quyết một bài toán Erdos thứ hai (#281) chỉ bằng GPT 5.2 Pro - không có giải pháp nào trước đó được tìm thấy.
Terence Tao gọi đây là "có lẽ là trường hợp rõ ràng nhất" của AI giải quyết một vấn đề mở:
Nghiên cứu mới về khi nào các phương pháp gradient quang phổ (ví dụ: Muon) giúp ích trong học sâu:
1. Chúng tôi xác định một dạng phổ biến của sự không ổn định trong DL: các ma trận sau kích hoạt có hạng thấp và không ổn định.
2. Sau đó, chúng tôi giải thích tại sao các phương pháp quang phổ có thể hoạt động tốt bất chấp điều này.
Chuỗi dài
Trong chương trình LLM của Simons vào mùa thu năm ngoái, @mahdisoltanol đã hỏi liệu bất đẳng thức này có đúng cho phân phối p và q không:
Dₖₗ(p,q) · ∑ᵢ pᵢ(pᵢ−qᵢ) ≤ ∑ᵢ pᵢ · (pᵢ−qᵢ) ln(pᵢ/qᵢ)
Một vài người trong chúng tôi đã bị ám ảnh với giới hạn này. Tôi nhớ @jasondeanlee đã thức khuya để tìm kiếm các phản ví dụ.
GPT-5 Pro found a counterexample to the NICD-with-erasures majority optimality (Simons list, p.25).
At p=0.4, n=5, f(x) = sign(x_1-3x_2+x_3-x_4+3x_5) gives E|f(x)|=0.43024 vs best majority 0.42904.