La croissance des capacités des modèles d'IA ne ressemble en rien à la façon dont l'intelligence humaine se développe, mais il existe toujours une hypothèse répandue parmi les types d'IA selon laquelle l'AGI ou la super intelligence aura, inévitablement, la même distribution de capacités que les génies humains. Cela semble faux.
l'observation de Karpathy (et d'autres aussi) selon laquelle l'apprentissage par renforcement produit un ensemble de capacités qui pourraient ne jamais se développer en AGI (c'est-à-dire que l'augmentation des données d'entraînement et l'amélioration de la qualité des données pourraient ne jamais conduire à des modèles qui sont par défaut agentiques ou générant des idées nouvelles ou quoi que ce soit) pourrait également se généraliser.
c'est-à-dire qu'il ne me semble pas qu'il existe une loi de l'univers qui dit que l'ensemble du paquet d'intelligence humaine à travers la population sera réplicable en utilisant des techniques d'apprentissage automatique, encore moins dans une direction de recherche donnée.
il me semble très plausible (je suis un idiot d'ailleurs) que l'on puisse construire des modèles d'IA agentique apprenant en continu, capables de réaliser presque tout le travail d'un analyste juridique de haut niveau dans un cabinet, mais seulement 50 ou 60 % du travail d'un chercheur en droit travaillant dans un nouveau domaine.
c'est évident pour les avocats d'ailleurs, car ils savent que les avocats travaillant dans de nouveaux domaines ou sous-domaines sont essentiellement en train d'inventer le droit par analogie, etc.
je ne suis pas un gars de la physique, mais l'équivalent serait que vous pouvez héberger 10 000 étudiants diplômés en auto-amélioration dans un centre de données sans être capable de faire le travail d'un einstein (ou peu importe— je ne sais pas si le "quand l'AGI remplacera einstein" est une hypothèse utile du tout)
même si vous supposez qu'il est possible de reproduire l'intuition humaine dans son ensemble avec, disons, une combinaison de plusieurs architectures de modèles différentes en concert — cela me semble beaucoup ressembler au genre de problème d'optimisation laborieux que le réglage des modèles de pointe est devenu maintenant.
3,57K