هذا الإثبات من ChatGPT في الواقع رائع ويتجاوز ما كنت أعتقد أنه يمكن حله باستفسار واحد إلى GPT Pro.
لكنني أتساءل كم عدد مسائل إردوس التي ستتبع مبرهنة إردوس.
لقد حللت مشكلة إردوس ثانية (#281) باستخدام GPT 5.2 Pro فقط - لم أجد أي حلول سابقة.
يصف تيرينس تاو ذلك بأنه "ربما أكثر الحالات وضوحا" لحل الذكاء الاصطناعي لمشكلة مفتوحة:
تدرس ورقة بحثية جديدة متى تساعد طرق التدرج الطيفي (مثل Muon) في التعلم العميق:
1. نحدد نوعا شائعا من سوء التكييف في DL: مصفوفات ما بعد التنشيط هي رتبة منخفضة ومستقرة.
2. ثم نشرح لماذا يمكن للطرق الطيفية أن تؤدي أداء جيدا رغم ذلك.
خيط طويل
خلال برنامج Simons LLM في الخريف الماضي ، سأل @mahdisoltanol عما إذا كان هذا ineq صحيحا بالنسبة للتوزيع. ف وسؤال:
دكل(ع، ق) · ∑i pi (pi−qi) ≤ ∑i pi · (pi−qi) ln(pi/qi)
أصبح عدد قليل منا مهووسا بالحدود. أتذكر @jasondeanlee بقيت مستيقظا حتى وقت متأخر بحثا عن أمثلة مضادة.
GPT-5 Pro found a counterexample to the NICD-with-erasures majority optimality (Simons list, p.25).
At p=0.4, n=5, f(x) = sign(x_1-3x_2+x_3-x_4+3x_5) gives E|f(x)|=0.43024 vs best majority 0.42904.