De twee meest geciteerde artikelen aller tijden zijn gebaseerd op ons werk uit 1991 Er zijn tientallen miljoenen onderzoeksartikelen die vele wetenschappelijke disciplines bestrijken. Volgens Google Scholar (2025) zijn de twee meest geciteerde wetenschappelijke artikelen aller tijden (in termen van citaties over een periode van drie jaar, zonder handleidingen) beide over diepe kunstmatige neurale netwerken [WHO4-11]. Bij de huidige groeisnelheid zullen ze misschien binnenkort de twee meest geciteerde artikelen ooit zijn, punt. Zie voetnoot 1. Beide artikelen zijn rechtstreeks gebaseerd op wat we 35 jaar geleden publiceerden in het Wonderbaarlijke Jaar [MIR] tussen maart en juni 1991, toen computertijd ongeveer 10 miljoen keer duurder was dan vandaag. (Toevallig is 1991 het enige palindromische jaar van de 20e eeuw :-) 1. Een van de twee artikelen gaat over een neuraal netwerk (NN) genaamd Transformer (zie de T in ChatGPT). Van 2023 tot 2025 ontving het meer dan 157k Google Scholar-citaties. Het is een type Fast Weight Programmer gebaseerd op principes van onze Unnormalized Linear Transformer (ULTRA) gepubliceerd in maart 1991. Zie details in het technische rapport [WHO10]: Wie heeft Transformer neurale netwerken uitgevonden? 2. Het andere artikel gaat over diepe residuele leren met NN's. Van 2023 tot 2025 ontving het meer dan 150k Google Scholar-citaties. Diepe residuele leren met residuele netwerken werd uitgevonden en verder ontwikkeld tussen juni 1991 en mei 2015 - voor zowel recurrente NN's (RNN's) als feedforward NN's (FNN's) - door mijn studenten @HochreiterSepp, Felix Gers, Alex Graves, @rupspace & Klaus Greff. De diepe residuele RNN genaamd LSTM werd het meest geciteerde AI van de 20e eeuw, een diepe residuele FNN-variant het meest geciteerde AI van de 21e. Zie details in het technische rapport [WHO11]: Wie heeft diep residueel leren uitgevonden? Andere mijlpalen van 1991 zijn: 3. Het eerste peer-reviewed artikel over generatieve adversarial networks (GANs) voor wereldmodellen en kunstmatige nieuwsgierigheid [WHO8] - veel later werd een artikel uit 2014 over GANs het meest geciteerde artikel van de "meest geciteerde levende wetenschapper." 4. Voortraining voor diepe NN's [DLH] (de P in ChatGPT). 5. NN-distillatie (centraal voor de beroemde DeepSeek van 2025) [WHO9]. In 1991 verwachtten weinig mensen dat deze ideeën de moderne AI en dus de moderne wereld en haar meest waardevolle bedrijven [DLH] zouden vormgeven. ---------- Voetnoot 1. Er is concurrentie door een hoog geciteerd psychologisch artikel [PSY06]. Het moet ook worden vermeld dat verschillende databases die academische citaties volgen, naar verschillende documentsets kijken en verschillen in citatienummers [MOST25-26]. Sommige omvatten hoog geciteerde handleidingen [RMAN][PSY13]. Sommige artikelen hebben talrijke co-auteurs, en veel onderzoekers hebben erop gewezen dat citatieranglijsten genormaliseerd moeten worden om hier rekening mee te houden. Het artikel met de meeste Google Scholar-citaties per co-auteur (meer dan 300.000) is nog steeds dat van de Zwitserse bioloog Ulrich Laemmli (1970) [LAE]. Over het algemeen gesproken, wees echter sceptisch over citatieranglijsten! In 2011 schreef ik in Nature ("Citatiebubbel staat op het punt te barsten?") [NAT1]: "Net als de minder-waardeloze collateralized debt obligations die de recente financiële bubbel aandreven, en in tegenstelling tot concrete goederen en echte exporten, zijn citaties gemakkelijk te printen en te inflateren. Financiële deregulering leidde tot kortetermijnprikkels voor bankiers en ratingbureaus om hun CDO's te overwaarderen, wat hele economieën ten val bracht. Evenzo bieden de huidige academische ranglijsten een prikkel voor professoren om citatietellingen te maximaliseren in plaats van wetenschappelijke vooruitgang [...] We bevinden ons misschien al midden in een citatiebubbel - getuige hoe relatief onbekende wetenschappers nu meer citaties kunnen verzamelen dan de meest invloedrijke oprichters van hun vakgebieden [...] Merk op dat ik schrijf vanuit het land met de meeste citaties per hoofd van de bevolking en per wetenschapper." [NAT1] REFERENTIES [DLH] J. Schmidhuber. Geannoteerde Geschiedenis van Moderne AI en Diep Leren. Technisch Rapport IDSIA-22-22, IDSIA, Zwitserland, 2022, bijgewerkt 2025. Preprint arXiv:2212.11279 [LAE] U. K. Laemmli. Splitsing van structurele eiwitten tijdens de assemblage van de kop van bacteriofaag T4. Nature, 227 (5259):680-685, 1970. [MIR] J. Schmidhuber (okt 2019, bijgewerkt 2025). Diep Leren: Ons Wonderbaarlijke Jaar 1990-1991. Preprint arXiv:2005.05744 ...