Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
C'était un plaisir de venir chez Dwarkesh la semaine dernière, je pensais que les questions et la conversation étaient vraiment bonnes.
Je viens de revoir le podcast aussi. Tout d'abord, oui je sais, et je suis désolé de parler si vite :). C'est à mon détriment car parfois mon fil de parole dépasse mon fil de pensée, donc je pense que j'ai raté quelques explications à cause de cela, et parfois j'étais aussi nerveux de partir trop dans une tangente ou d'approfondir quelque chose de relativement accessoire. Quoi qu'il en soit, quelques notes/indications :
Les délais de l'AGI. Mes commentaires sur les délais de l'AGI semblent être la partie la plus tendance de la réponse initiale. Ce "décennie des agents" fait référence à ce tweet précédent. En gros, mes délais pour l'IA sont environ 5 à 10 fois plus pessimistes par rapport à ce que vous trouverez dans votre fête de quartier sur l'IA à SF ou sur votre fil Twitter, mais restent tout de même assez optimistes par rapport à une marée montante de dénégateurs et de sceptiques de l'IA. Le conflit apparent n'est pas : à mon avis, nous avons simultanément 1) vu une énorme quantité de progrès ces dernières années avec les LLM tout en 2) ayant encore beaucoup de travail à faire (travail de base, travail d'intégration, capteurs et actionneurs pour le monde physique, travail sociétal, travail de sécurité et de sûreté (jailbreaks, empoisonnements, etc.)) et aussi de la recherche à réaliser avant d'avoir une entité que vous préféreriez embaucher plutôt qu'une personne pour un emploi arbitraire dans le monde. Je pense qu'au total, 10 ans devraient être un délai très optimiste pour l'AGI, c'est seulement en contraste avec l'engouement actuel que cela ne semble pas être le cas.
Animaux vs Fantômes. Mon précédent article sur le podcast de Sutton. Je suis suspicieux qu'il existe un seul algorithme simple que vous pouvez lâcher dans le monde et qui apprend tout depuis le début. Si quelqu'un construit une telle chose, j'aurai tort et ce sera la percée la plus incroyable en IA. Dans mon esprit, les animaux ne sont pas un exemple de cela du tout - ils sont préemballés avec une tonne d'intelligence par l'évolution et l'apprentissage qu'ils font est globalement assez minimal (exemple : un zèbre à la naissance). En mettant nos chapeaux d'ingénieur, nous n'allons pas refaire l'évolution. Mais avec les LLM, nous avons trébuché sur une approche alternative pour "préemballer" une tonne d'intelligence dans un réseau de neurones - non pas par l'évolution, mais en prédisant le prochain token sur Internet. Cette approche mène à un type d'entité différent dans l'espace de l'intelligence. Distinct des animaux, plus comme des fantômes ou des esprits. Mais nous pouvons (et devrions) les rendre plus semblables aux animaux au fil du temps et d'une certaine manière, c'est de cela que beaucoup de travaux de pointe parlent.
Sur le RL. J'ai déjà critiqué le RL plusieurs fois, par exemple. Tout d'abord, vous "aspirez la supervision à travers une paille", donc je pense que le signal/flop est très mauvais. Le RL est aussi très bruyant car une complétion peut avoir beaucoup d'erreurs qui pourraient être encouragées (si vous tombez par hasard sur la bonne réponse), et inversement, des tokens d'insight brillants qui pourraient être découragés (si vous vous trompez plus tard). La supervision de processus et les juges LLM ont aussi des problèmes. Je pense que nous verrons des paradigmes d'apprentissage alternatifs. Je suis long sur "l'interaction agentique" mais court sur "l'apprentissage par renforcement". J'ai vu un certain nombre de papiers apparaître récemment qui, à mon avis, s'attaquent au bon problème le long des lignes de ce que j'ai appelé "l'apprentissage par prompt système", mais je pense qu'il y a aussi un écart entre les idées sur arxiv et la mise en œuvre réelle, à grande échelle, dans un laboratoire de pointe LLM qui fonctionne de manière générale. Je suis globalement assez optimiste que nous verrons de bons progrès sur cette dimension du travail restant assez bientôt, et par exemple, je dirais même que la mémoire de ChatGPT et ainsi de suite sont des exemples déployés primordiaux de nouveaux paradigmes d'apprentissage.
Noyau cognitif. Mon précédent post sur le "noyau cognitif" : l'idée de réduire les LLM, de leur rendre plus difficile la mémorisation, ou de supprimer activement leur mémoire, pour les rendre meilleurs en généralisation. Sinon, ils s'appuient trop sur ce qu'ils ont mémorisé. Les humains ne peuvent pas mémoriser aussi facilement, ce qui semble maintenant plus être une caractéristique qu'un bug par contraste. Peut-être que l'incapacité à mémoriser est une sorte de régularisation. Aussi, mon post d'il y a un certain temps sur la tendance de la taille des modèles qui est "à l'envers" et pourquoi "les modèles doivent d'abord devenir plus grands avant de pouvoir devenir plus petits".
Voyage dans le temps jusqu'à Yann LeCun 1989. C'est le post que j'ai fait d'une manière très hâtive/mauvaise sur le podcast : en gros - combien pourriez-vous améliorer les résultats de Yann LeCun avec la connaissance de 33 ans de progrès algorithmique ? Dans quelle mesure les résultats étaient-ils contraints par chacun des algorithmes, des données et du calcul ? Étude de cas là-bas.
nanochat. Mon implémentation de bout en bout du pipeline d'entraînement/inférence de ChatGPT (les éléments essentiels)
Sur les agents LLM. Ma critique de l'industrie est plus dans le fait de dépasser les outils par rapport à la capacité actuelle. Je vis dans ce que je considère comme un monde intermédiaire où je veux collaborer avec les LLM et où nos avantages/inconvénients sont alignés. L'industrie vit dans un futur où des entités entièrement autonomes collaborent en parallèle pour écrire tout le code et les humains sont inutiles. Par exemple, je ne veux pas d'un agent qui part pendant 20 minutes et revient avec 1 000 lignes de code. Je ne me sens certainement pas prêt à superviser une équipe de 10 d'entre eux. J'aimerais avancer par morceaux que je peux garder en tête, où un LLM explique le code qu'il écrit. J'aimerais qu'il me prouve que ce qu'il a fait est correct, je veux qu'il consulte la documentation de l'API et me montre qu'il a utilisé les choses correctement. Je veux qu'il fasse moins d'hypothèses et qu'il me demande/collabore avec moi quand il n'est pas sûr de quelque chose. Je veux apprendre en cours de route et devenir meilleur en tant que programmeur, pas juste recevoir des montagnes de code qu'on me dit qui fonctionne. Je pense juste que les outils devraient être plus réalistes par rapport à leur capacité et à la façon dont ils s'intègrent dans l'industrie aujourd'hui, et je crains que si cela n'est pas bien fait, nous pourrions finir avec des montagnes de déchets s'accumulant dans les logiciels, et une augmentation des vulnérabilités, des violations de sécurité, etc.
Automatisation des emplois. Comment les radiologues s'en sortent très bien et quels emplois sont plus susceptibles d'être automatisés et pourquoi.
Physique. Les enfants devraient apprendre la physique dès l'éducation précoce non pas parce qu'ils vont faire de la physique, mais parce que c'est la matière qui stimule le mieux un cerveau. Les physiciens sont les cellules souches embryonnaires intellectuelles. J'ai un post plus long qui est à moitié écrit dans mes brouillons depuis environ un an, que j'espère finir bientôt.
Merci encore Dwarkesh de m'avoir reçu !
Meilleurs
Classement
Favoris