Topik trending
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Amjad Masad
CEO @replit. peradaban
Menarik. Mengapa Fukushima tidak seterkenal peneliti AI Barat?

Jürgen Schmidhuber3 Agu, 22.05
Siapa yang menemukan jaringan saraf konvolusional (CNN)?
1969: Fukushima memiliki ReLU yang relevan dengan CNN [2].
1979: Fukushima memiliki arsitektur CNN dasar dengan lapisan konvolusi dan lapisan downsampling [1]. Komputasi 100 x lebih mahal daripada pada tahun 1989, dan satu miliar x lebih mahal daripada hari ini.
1987: Waibel menerapkan propagasi balik Linnainmaa tahun 1970 [3] untuk TDNN pembagian berat dengan konvolusi 1 dimensi [4].
1988: Wei Zhang et al. menerapkan CNN 2 dimensi "modern" yang dilatih backprop untuk pengenalan karakter [5].
Semua hal di atas diterbitkan di Jepang 1979-1988.
1989: LeCun et al. menerapkan CNN lagi untuk pengenalan karakter (kode pos) [6,10].
1990-93: Downsampling Fukushima berdasarkan rata-rata spasial [1] digantikan oleh max-pooling untuk TDNN 1-D (Yamaguchi et al.) [7] dan CNN 2-D (Weng et al.) [8].
2011: Jauh kemudian, tim saya dengan Dan Ciresan membuat CNN max-pooling dengan sangat cepat di GPU NVIDIA. Pada tahun 2011, DanNet mencapai hasil pengenalan pola manusia super pertama [9]. Untuk sementara, ia menikmati monopoli: dari Mei 2011 hingga September 2012, DanNet memenangkan setiap tantangan pengenalan gambar yang diikutinya, 4 di antaranya berturut-turut. Namun, harus diakui, ini sebagian besar tentang rekayasa & meningkatkan wawasan dasar dari milenium sebelumnya, mendapatkan keuntungan dari perangkat keras yang jauh lebih cepat.
Beberapa "pakar AI" mengklaim bahwa "membuat CNN bekerja" (misalnya, [5,6,9]) sama pentingnya dengan menemukannya. Tetapi "membuatnya bekerja" sangat tergantung pada apakah laboratorium Anda cukup kaya untuk membeli komputer terbaru yang diperlukan untuk meningkatkan karya aslinya. Ini sama seperti hari ini. Penelitian dasar vs rekayasa/pengembangan - R vs D dalam R&D.
REFERENSI
[1] K. Fukushima (1979). Model jaringan saraf untuk mekanisme pengenalan pola yang tidak terpengaruh oleh pergeseran posisi - Neocognitron. Trans. IECE, vol. J62-A, no. 10, hlm. 658-665, 1979.
[2] K. Fukushima (1969). Ekstraksi fitur visual oleh jaringan elemen ambang analog berlapis-lapis. Transaksi IEEE tentang Ilmu Sistem dan Sibernetika. 5 (4): 322-333. Pekerjaan ini memperkenalkan unit linier yang diperbaiki (ReLU), yang sekarang digunakan di banyak CNN.
[3] S. Linnainmaa (1970). Tesis Master, Univ. Helsinki, 1970. Publikasi pertama tentang propagasi balik "modern", juga dikenal sebagai mode terbalik diferensiasi otomatis. (Lihat ikhtisar backpropagation Schmidhuber yang terkenal: "Siapa yang Menemukan Backpropagation?")
[4] A. Waibel. Pengenalan fonem menggunakan jaringan saraf penundaan waktu. Pertemuan IEICE, Tokyo, Jepang, 1987. Propagasi balik untuk TDNN pembagian berat dengan konvolusi 1 dimensi.
[5] W. Zhang, J. Tanida, K. Itoh, Y. Ichioka. Jaringan saraf pengenalan pola invarian pergeseran dan arsitektur optiknya. Konferensi Tahunan Masyarakat Fisika Terapan Jepang, 1988. CNN 2 dimensi yang dilatih backpropagation pertama, dengan aplikasi untuk pengenalan karakter bahasa Inggris.
[6] Y. LeCun, B. Boser, J. S. Denker, D. Henderson, R. E. Howard, W. Hubbard, L. D. Jackel: Backpropagation Applied to Handwritten Postal Code Recognition, Neural Computation, 1(4):541-551, 1989. Lihat juga Bagian 3 dari [10].
[7] K. Yamaguchi, K. Sakamoto, A. Kenji, T. Akabane, Y. Fujimoto. Jaringan saraf untuk pengenalan kata terisolasi independen pembicara. Konferensi Internasional Pertama tentang Pemrosesan Bahasa Lisan (ICSLP 90), Kobe, Jepang, November 1990. TDNN konvolusional 1 dimensi menggunakan Max-Pooling, bukan Spatial Averaging Fukushima [1].
[8] Weng, J., Ahuja, N., dan Huang, TS (1993). Mempelajari pengenalan dan segmentasi objek 3-D dari gambar 2-D. Proc. 4th Intl. Conf. Computer Vision, Berlin, hlm. 121-128. CNN 2 dimensi yang lapisan downsampling menggunakan Max-Pooling (yang telah menjadi sangat populer) alih-alih Spatial Averaging Fukushima [1].
[9] Pada tahun 2011, CNN berbasis GPU yang cepat dan dalam bernama DanNet (7+ lapisan) mencapai kinerja manusia super pertama dalam kontes visi komputer. Lihat ikhtisar: "2011: DanNet memicu revolusi CNN yang dalam."
[10] Bagaimana 3 penerima penghargaan Turing menerbitkan ulang metode dan ide utama yang penciptanya gagal mereka kreditkan. Laporan Teknis IDSIA-23-23, Swiss AI Lab IDSIA, 14 Des 2023. Lihat juga video YouTube untuk Upacara Penghargaan Bower 2021: J. Schmidhuber memuji Kunihiko Fukushima.

26,12K
Peretas nomor satu di dunia sekarang menjadi agen AI.

XBOW1 Agu, 06.02
XBOW sekarang menjadi peretas #1 di HackerOne, secara global.
Untuk pertama kalinya, pentester AI otonom kami menduduki puncak papan peringkat dunia.
Minggu depan di #BlackHat, kami akan melihatnya secara langsung:
Kami akan menjalankan program HackerOne secara real-time—ayo lihat XBOW menemukan kerentanan.
📍 Stan 3257

125,22K
"Superintelligence" dianggap sebagai momen singularitas di mana sangat mengganggu sehingga sulit untuk memprediksi apa yang terjadi selanjutnya. Momen yang sangat menakutkan sehingga beberapa orang berpikir itu mungkin mengakhiri dunia.
Tapi sekarang kita sudah berbicara tentang "kecerdasan super pribadi" teman 😂 Facebook virtual

AI at Meta30 Jul 2025
Hari ini Mark membagikan visi Meta untuk masa depan kecerdasan super pribadi untuk semua orang.
Baca surat lengkapnya di sini:
118,98K
Seorang CEO perusahaan publik mengatakan kepada saya bahwa pengkodean AI telah berdampak kecil pada tim tekniknya, sebaliknya transformasi sebenarnya adalah pada tim produk dan desain mereka menggunakan Replit.
Saya bertanya kepadanya bagaimana dia mendamaikan ini dengan CEO yang mengatakan bahwa 25-50% kode dihasilkan oleh AI?
Dia mengatakan itu juga benar dalam kasus mereka—AI memang menghasilkan banyak kode mereka—tetapi bahwa waktu apa pun yang dihemat dalam menghasilkan kode hilang kembali dalam debugging, mengembalikan bug, dan audit keamanan. Jadi, jika Anda mengukur waktu pengiriman, PR digabungkan, atau metrik tingkat tinggi apa pun, Anda tidak melihat dampak apa pun.
Sedangkan tim non-teknisnya memperoleh kekuatan super baru yang mendasar untuk dapat membuat perangkat lunak. Pembuatan prototipe dengan Replit membuat kecepatan iterasi menjadi sangat cepat sebelum masuk ke rekayasa. Dan tim non-produk—seperti SDM—untuk pertama kalinya dapat memecahkan masalah di mana vendor tidak memiliki solusi yang tepat yang mereka cari.
Saya terkejut mendengar bagian tentang tim teknik, dan saya yakin setiap perusahaan akan berbeda, tetapi masuk akal dampak mendalam agen pengkodean terhadap orang-orang non-teknis.
829,15K
Model penetapan harga terbaik untuk AI berbasis hasil.
Misalnya, tagihan saat AI menutup tiket dukungan.
Tetapi sangat sedikit hal yang bekerja dengan cara ini di mana tugas relatif berumur pendek dan kondisi penyelesaiannya jelas.

Amjad Masad29 Jul 2025
Paket berlangganan AI "penggunaan tidak terbatas" pada dasarnya tidak berkelanjutan untuk produk agen karena tidak peduli seberapa murah harga token, pengguna akan ingin mengonsumsi lebih banyak.
84,09K
Amjad Masad memposting ulang
Saya menghabiskan beberapa jam pagi ini di Replit membangun sesuatu (dimulai dengan kode dari artefak claude) dan saya terpesona oleh Replit.
Ini benar-benar pengalaman perangkat lunak ajaib, baik di ux front end maupun back end.
Saya akan melakukan semua pengkodean getaran saya di sana sekarang.
19,46K
Teratas
Peringkat
Favorit
Trending onchain
Trending di X
Pendanaan teratas terbaru
Paling terkenal