Los dos artículos más citados de todos los tiempos se basan en nuestro trabajo de 1991 Hay decenas de millones de artículos de investigación que abarcan muchas disciplinas científicas. Según Google Scholar (2025), los dos artículos científicos más citados de todos los tiempos (en términos de citas durante un período de tres años, ignorando manuales) son ambos sobre redes neuronales artificiales profundas [WHO4-11]. A la tasa de crecimiento actual, quizás pronto serán los dos artículos más citados de la historia, punto. Ver Nota al pie 1. Ambos artículos se basan directamente en lo que publicamos hace 35 años en el Año Milagroso [MIR] entre marzo y junio de 1991, cuando el cómputo era aproximadamente 10 millones de veces más caro que hoy. (Coincidentemente, 1991 es el único año palindrómico del siglo XX :-) 1. Uno de los dos artículos trata sobre una red neuronal (NN) llamada Transformer (ver la T en ChatGPT). De 2023 a 2025, recibió más de 157k citas en Google Scholar. Es un tipo de Programador de Peso Rápido basado en principios de nuestro Transformador Lineal No Normalizado (ULTRA) publicado en marzo de 1991. Ver detalles en el informe técnico [WHO10]: ¿Quién inventó las redes neuronales Transformer? 2. El otro artículo trata sobre el aprendizaje residual profundo con NNs. De 2023 a 2025, recibió más de 150k citas en Google Scholar. El aprendizaje residual profundo con redes residuales fue inventado y desarrollado entre junio de 1991 y mayo de 2015 - tanto para NNs recurrentes (RNNs) como para NNs de avance (FNNs) - por mis estudiantes @HochreiterSepp, Felix Gers, Alex Graves, @rupspace y Klaus Greff. La RNN residual profunda llamada LSTM se convirtió en la IA más citada del siglo XX, una variante de FNN residual profunda la más citada del siglo XXI. Ver detalles en el informe técnico [WHO11]: ¿Quién inventó el aprendizaje residual profundo? Otros hitos de 1991 incluyen: 3. El primer artículo revisado por pares sobre redes generativas adversariales (GANs) para modelos del mundo y curiosidad artificial [WHO8] - mucho más tarde, un artículo de 2014 sobre GANs se convirtió en el artículo más citado del "científico vivo más citado." 4. Pre-entrenamiento para NNs profundas [DLH] (la P en ChatGPT). 5. Destilación de NN (central para el famoso DeepSeek 2025) [WHO9]. En 1991, pocas personas esperaban que estas ideas moldearan la IA moderna y, por ende, el mundo moderno y sus empresas más valiosas [DLH]. ---------- Nota al pie 1. Hay competencia a través de un artículo de psicología altamente citado [PSY06]. También debe mencionarse que varias bases de datos que rastrean citas académicas observan diferentes conjuntos de documentos y difieren en los números de citas [MOST25-26]. Algunas incluyen manuales altamente citados [RMAN][PSY13]. Algunos artículos tienen numerosos coautores, y muchos investigadores han señalado que los rankings de citas deberían normalizarse para tener esto en cuenta. El artículo con más citas en Google Scholar por coautor (más de 300,000) sigue siendo el de la bióloga suiza Ulrich Laemmli (1970) [LAE]. Hablando en términos generales, sin embargo, ¡seamos escépticos sobre los rankings de citas! En 2011, escribí en Nature ("¿La burbuja de citas está a punto de estallar?") [NAT1]: "Al igual que las obligaciones de deuda colateralizadas que no valen nada y que impulsaron la reciente burbuja financiera, y a diferencia de bienes concretos y exportaciones reales, las citas son fáciles de imprimir e inflar. La desregulación financiera llevó a incentivos a corto plazo para banqueros y agencias de calificación para sobrevalorar sus CDOs, derribando economías enteras. De igual manera, los rankings académicos de hoy proporcionan un incentivo para que los profesores maximicen los conteos de citas en lugar del progreso científico [...] Ya podríamos estar en medio de una burbuja de citas - testigos de cómo científicos relativamente desconocidos pueden ahora recoger más citas que los fundadores más influyentes de sus campos [...] Tenga en cuenta que escribo desde el país con más citas per cápita y por científico." [NAT1] REFERENCIAS [DLH] J. Schmidhuber. Historia anotada de la IA moderna y el aprendizaje profundo. Informe técnico IDSIA-22-22, IDSIA, Suiza, 2022, actualizado 2025. Preprint arXiv:2212.11279 [LAE] U. K. Laemmli. Cleavage of structural proteins during the assembly of the head of bacteriophage T4. Nature, 227 (5259):680-685, 1970. [MIR] J. Schmidhuber (Oct 2019, actualizado 2025). Aprendizaje profundo: nuestro Año Milagroso 1990-1991. Preprint arXiv:2005.05744 ...