Topik trending
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Dua makalah yang paling banyak dikutip sepanjang masa didasarkan pada karya kami tahun 1991
Ada puluhan juta makalah penelitian yang mencakup banyak disiplin ilmu ilmu. Menurut Google Scholar (2025), dua artikel ilmiah yang paling banyak dikutip sepanjang masa (dalam hal kutipan selama periode tiga tahun, mengabaikan manual) keduanya tentang jaringan saraf buatan dalam [WHO4-11]. Pada tingkat pertumbuhan saat ini, mungkin mereka akan segera menjadi dua makalah yang paling banyak dikutip yang pernah ada, titik. Lihat Catatan Kaki 1.
Kedua artikel tersebut secara langsung didasarkan pada apa yang kami terbitkan 35 tahun yang lalu di Tahun Ajaib [MIR] antara Maret dan Juni 1991, ketika komputasi sekitar 10 juta kali lebih mahal daripada hari ini. (Secara kebetulan, 1991 adalah satu-satunya tahun palindromik abad ke-20 :-)
1. Salah satu dari dua makalah tersebut adalah tentang jaringan saraf (NN) yang disebut Transformer (lihat T di ChatGPT). Dari 2023 hingga 2025, ia menerima lebih dari 157 ribu kutipan Google Scholar. Ini adalah jenis Pemrogram Berat Cepat berdasarkan prinsip-prinsip Unnormalized Linear Transformer (ULTRA) kami yang diterbitkan pada Maret 1991. Lihat detail dalam laporan teknis [WHO10]: Siapa yang menemukan jaringan saraf Transformer?
2. Makalah lainnya adalah tentang pembelajaran residual mendalam dengan NN. Dari tahun 2023 hingga 2025, ia menerima lebih dari 150 ribu kutipan Google Scholar. Pembelajaran residual mendalam dengan jaringan residual ditemukan dan dikembangkan lebih lanjut antara Juni 1991 dan Mei 2015 - untuk NN berulang (RNN) dan NN feedforward (FNN) - oleh siswa saya @HochreiterSepp, Felix Gers, Alex Graves, @rupspace & Klaus Greff. RNN residual dalam yang disebut LSTM menjadi AI yang paling banyak dikutip di abad ke-20, varian FNN residual dalam AI yang paling banyak dikutip pada abad ke-21. Lihat detail dalam laporan teknis [WHO11]: Siapa yang menemukan pembelajaran residual mendalam?
Tonggak sejarah lain tahun 1991 meliputi: 3. Makalah pertama yang ditinjau sejawat tentang jaringan permusuhan generatif (GAN) untuk model dunia dan keingintahuan buatan [WHO8] - jauh kemudian, makalah tahun 2014 tentang GAN menjadi makalah yang paling banyak dikutip dari "ilmuwan hidup yang paling banyak dikutip." 4. Pra-pelatihan untuk NN dalam [DLH] (P di ChatGPT). 5. Distilasi NN (pusat DeepSeek 2025 yang terkenal) [WHO9].
Pada tahun 1991, hanya sedikit orang yang mengharapkan ide-ide ini untuk membentuk AI modern dan dengan demikian dunia modern dan perusahaannya yang paling berharga [DLH].
----------
Catatan kaki 1. Ada persaingan melalui makalah psikologi yang sangat dikutip [PSY06]. Perlu juga disebutkan bahwa berbagai database yang melacak kutipan akademik melihat kumpulan dokumen yang berbeda dan berbeda dalam jumlah kutipan [MOST25-26]. Beberapa termasuk manual yang sangat dikutip [RMAN][PSY13].
Beberapa makalah memiliki banyak rekan penulis, dan banyak peneliti telah menunjukkan bahwa peringkat kutipan harus dinormalisasi untuk memperhitungkan hal ini. Makalah dengan kutipan Google Scholar terbanyak per rekan penulis (lebih dari 300.000) masih merupakan karya ahli biologi Swiss Ulrich Laemmli (1970) [LAE].
Namun, secara umum, bersikaplah skeptis tentang peringkat kutipan! Pada tahun 2011, saya menulis di Nature ("Gelembung kutipan akan meledak?") [NAT1]: "Seperti kewajiban utang yang dijamin yang kurang berharga yang mendorong gelembung keuangan baru-baru ini, dan tidak seperti barang beton dan ekspor nyata, kutipan mudah dicetak dan digelembungkan. Deregulasi keuangan menyebabkan insentif jangka pendek bagi bankir dan lembaga pemeringkat untuk menilai CDO mereka secara berlebihan, menjatuhkan seluruh ekonomi. Demikian juga, peringkat akademik saat ini memberikan insentif bagi profesor untuk memaksimalkan jumlah kutipan alih-alih kemajuan ilmiah [...] Kita mungkin sudah berada di tengah-tengah gelembung kutipan - saksikan bagaimana ilmuwan yang relatif tidak dikenal sekarang dapat mengumpulkan lebih banyak kutipan daripada pendiri paling berpengaruh di bidangnya [...] Perhatikan bahwa saya menulis dari negara dengan kutipan per kapita dan per ilmuwan terbanyak." [NAT1]
REFERENSI
[DLH] J. Schmidhuber. Sejarah beranotasi AI modern dan pembelajaran mendalam. Laporan Teknis IDSIA-22-22, IDSIA, Swiss, 2022, diperbarui 2025. Pracetak arXiv: 2212.11279
[LAE] U. K. Laemmli. Pembelahan protein struktural selama perakitan kepala bakteriofag T4. Alam, 227 (5259):680-685, 1970.
[MIR] J. Schmidhuber (Oktober 2019, diperbarui 2025). Pembelajaran Mendalam: Tahun Ajaib Kita 1990-1991. Pracetak arXiv: 2005.05744
...

Teratas
Peringkat
Favorit
