هل أنا مخطئ في استشعار نقلة نوعية في الذكاء الاصطناعي؟ يبدو أننا ننتقل من عالم مهووس بواجهات برمجة تطبيقات LLM العامة إلى عالم تقوم فيه المزيد والمزيد من الشركات بتدريب وتحسين وتشغيل نماذجها الخاصة المبنية على المصدر المفتوح (خاصة الأصغر والمتخصصة) بعض علامات التحقق من الصحة في الأسابيع القليلة الماضية فقط: - @karpathy إصدار nanochat لتدريب العارضين في بضعة أسطر فقط من التعليمات البرمجية - أطلقت @thinkymachines منتجا دقيقا - تزايد شعبية @vllm_project و @sgl_project و @PrimeIntellect و Loras و TRL,... - 1 مليون مستودع جديد على HF في ال 90 يوما الماضية (بما في ذلك أول LLMs مفتوحة المصدر من @OpenAI) والآن ، @nvidia أعلن للتو عن DGX Spark ، وهو قوي بما يكفي للجميع لضبط موديلاتهم الخاصة في المنزل. هل توافق ، أم أنني أرى فقط المستقبل الذي أريد أن أكون موجودا؟ أيضا ، لماذا يحدث هذا (مجرد ظهور RL / ما بعد التدريب؟)