Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Amjad Masad
Prezes @replit. Cywilizacjonista
Interesujące. Dlaczego Fukushima nie jest tak doceniana jak zachodni badacze AI?

Jürgen Schmidhuber3 sie, 22:05
Kto wynalazł konwolucyjne sieci neuronowe (CNN)?
1969: Fukushima miał ReLU związane z CNN [2].
1979: Fukushima miał podstawową architekturę CNN z warstwami konwolucyjnymi i warstwami redukcji wymiarów [1]. Obliczenia były 100 razy droższe niż w 1989 roku, a miliard razy droższe niż dzisiaj.
1987: Waibel zastosował wagi dzielone w TDNN z jednowymiarowymi konwolucjami, korzystając z wstecznej propagacji Linnainmaa z 1970 roku [3] [4].
1988: Wei Zhang i in. zastosowali "nowoczesne" CNN trenowane wsteczną propagacją do rozpoznawania znaków [5].
Wszystko powyższe zostało opublikowane w Japonii w latach 1979-1988.
1989: LeCun i in. ponownie zastosowali CNN do rozpoznawania znaków (kodów pocztowych) [6,10].
1990-93: Redukcja wymiarów Fukushimy oparta na uśrednianiu przestrzennym [1] została zastąpiona przez max-pooling dla 1-D TDNN (Yamaguchi i in.) [7] oraz 2-D CNN (Weng i in.) [8].
2011: Dużo później, mój zespół z Danem Ciresanem sprawił, że max-pooling CNN stały się naprawdę szybkie na GPU NVIDIA. W 2011 roku DanNet osiągnął pierwszy superludzki wynik w rozpoznawaniu wzorców [9]. Przez pewien czas cieszył się monopolem: od maja 2011 do września 2012 DanNet wygrał każde wyzwanie w rozpoznawaniu obrazów, w tym 4 z rzędu. Należy jednak przyznać, że w dużej mierze chodziło o inżynierię i skalowanie podstawowych spostrzeżeń z poprzedniego tysiąclecia, korzystając z dużo szybszego sprzętu.
Niektórzy "eksperci AI" twierdzą, że "sprawienie, by CNN działały" (np. [5,6,9]) było tak samo ważne, jak ich wynalezienie. Ale "sprawienie, by działały" w dużej mierze zależało od tego, czy twoje laboratorium było wystarczająco bogate, aby kupić najnowsze komputery potrzebne do skalowania oryginalnej pracy. To samo dotyczy dzisiaj. Podstawowe badania vs inżynieria/rozwój - R vs D w R&D.
REFERENCJE
[1] K. Fukushima (1979). Model sieci neuronowej dla mechanizmu rozpoznawania wzorców, niepodlegającego przesunięciu pozycji — Neocognitron. Trans. IECE, vol. J62-A, nr 10, s. 658-665, 1979.
[2] K. Fukushima (1969). Ekstrakcja cech wizualnych przez sieć z wieloma warstwami elementów progowych analogowych. IEEE Transactions on Systems Science and Cybernetics. 5 (4): 322-333. Ta praca wprowadziła prostokątne jednostki liniowe (ReLU), obecnie używane w wielu CNN.
[3] S. Linnainmaa (1970). Praca magisterska, Uniwersytet w Helsinkach, 1970. Pierwsza publikacja na temat "nowoczesnej" wstecznej propagacji, znanej również jako odwrotna metoda automatycznej różnicowania. (Zobacz znany przegląd wstecznej propagacji Schmidhubera: "Kto wynalazł wsteczną propagację?")
[4] A. Waibel. Rozpoznawanie fonemów przy użyciu sieci neuronowych z opóźnieniem czasowym. Spotkanie IEICE, Tokio, Japonia, 1987. Wsteczna propagacja dla TDNN z wagami dzielonymi z jednowymiarowymi konwolucjami.
[5] W. Zhang, J. Tanida, K. Itoh, Y. Ichioka. Sieć neuronowa do rozpoznawania wzorców niezmiennych na przesunięcie i jej optyczna architektura. Proc. Annual Conference of the Japan Society of Applied Physics, 1988. Pierwsze CNN trenowane wsteczną propagacją w 2 wymiarach, z zastosowaniami do rozpoznawania znaków angielskich.
[6] Y. LeCun, B. Boser, J. S. Denker, D. Henderson, R. E. Howard, W. Hubbard, L. D. Jackel: Wsteczna propagacja zastosowana do rozpoznawania odręcznych kodów pocztowych, Neural Computation, 1(4):541-551, 1989. Zobacz także sekcję 3 [10].
[7] K. Yamaguchi, K. Sakamoto, A. Kenji, T. Akabane, Y. Fujimoto. Sieć neuronowa do rozpoznawania izolowanych słów niezależnych od mówcy. Pierwsza Międzynarodowa Konferencja na temat Przetwarzania Języka Mówionego (ICSLP 90), Kobe, Japonia, listopad 1990. Jednowymiarowy TDNN z konwolucjami używającymi Max-Poolingu zamiast uśredniania przestrzennego Fukushimy [1].
[8] Weng, J., Ahuja, N., i Huang, T. S. (1993). Uczenie rozpoznawania i segmentacji obiektów 3D z obrazów 2D. Proc. 4th Intl. Conf. Computer Vision, Berlin, s. 121-128. Dwuwymiarowe CNN, których warstwy redukcji wymiarów używają Max-Poolingu (który stał się bardzo popularny) zamiast uśredniania przestrzennego Fukushimy [1].
[9] W 2011 roku szybkie i głębokie CNN oparte na GPU, zwane DanNet (7+ warstw), osiągnęły pierwszy superludzki wynik w konkursie wizji komputerowej. Zobacz przegląd: "2011: DanNet wywołuje rewolucję głębokich CNN."
[10] Jak 3 laureatów nagrody Turinga opublikowało kluczowe metody i pomysły, których twórców nie uznali. Raport techniczny IDSIA-23-23, Szwajcarskie Laboratorium AI IDSIA, 14 grudnia 2023. Zobacz także film na YouTube z ceremonii wręczenia nagrody Bower 2021: J. Schmidhuber chwali Kunihiko Fukushimę.

26K
Najlepszy haker na świecie to teraz agent AI.

XBOW1 sie, 06:02
XBOW jest teraz numerem 1 wśród hakerów na HackerOne, na całym świecie.
Po raz pierwszy nasz autonomiczny AI pentester zajmuje pierwsze miejsce na światowej liście.
W przyszłym tygodniu na #BlackHat, uruchamiamy to na żywo:
Będziemy działać w czasie rzeczywistym na programach HackerOne—przyjdź zobaczyć, jak XBOW znajduje luki.
📍 Stoisko 3257

125,19K
„Superinteligencja” była uważana za moment osobliwości, w którym jest tak zakłócająca, że trudno przewidzieć, co się wydarzy następnie. Moment tak przerażający, że niektórzy ludzie myślą, że może zakończyć świat.
Ale teraz już rozmawiamy o „osobistej superinteligencji”, wirtualnym przyjacielu na Facebooku 😂

AI at Meta30 lip 2025
Dziś Mark podzielił się wizją Meta na przyszłość osobistej superinteligencji dla wszystkich.
Przeczytaj jego pełny list tutaj:
118,97K
CEO publicznej firmy powiedział mi, że kodowanie AI miało znikomy wpływ na jego zespoły inżynieryjne, zamiast tego prawdziwa transformacja miała miejsce w zespołach produktowych i projektowych, które korzystają z Replit.
Zapytałem go, jak to pogodzić z tym, co mówią CEO, że 25-50% kodu jest generowane przez AI?
Powiedział, że to również prawda w ich przypadku — AI generuje dużo ich kodu — ale że czas zaoszczędzony na generowaniu kodu jest tracony na debugowanie, przywracanie błędów i audyty bezpieczeństwa. Więc jeśli mierzysz czas do wysyłki, scalone PR-y, czy jakąkolwiek inną metrykę na wysokim poziomie, nie widzisz żadnego wpływu.
Natomiast jego zespoły nietechniczne zyskały fundamentalnie nową super moc, mogąc tworzyć oprogramowanie. Prototypowanie z Replit sprawia, że prędkość iteracji jest niesamowicie szybsza, zanim dotrze do inżynierii. A zespoły nietechniczne — takie jak HR — mogą po raz pierwszy rozwiązywać problemy, w których dostawcy nie mają dokładnych rozwiązań, których szukają.
Byłem zaskoczony, słysząc tę część o zespołach inżynieryjnych, i jestem pewien, że każda firma będzie inna, ale miało to sens, biorąc pod uwagę głęboki wpływ, jaki agenci kodowania mają na osoby nietechniczne.
829,08K
Najlepszym modelem cenowym dla AI jest model oparty na wynikach.
Na przykład, pobieraj opłatę, gdy AI zamknie zgłoszenie wsparcia.
Jednak bardzo niewiele rzeczy działa w ten sposób, gdzie zadanie jest stosunkowo krótkotrwałe, a warunek zakończenia jest jasny.

Amjad Masad29 lip 2025
Plany subskrypcyjne AI z "nieograniczoną ilością użytkowania" są zasadniczo nieodpowiednie dla produktów agentowych, ponieważ niezależnie od tego, jak niskie będą ceny tokenów, użytkownicy będą chcieli konsumować więcej.
84,06K
Użytkownik Amjad Masad udostępnił ponownie
Spędziłem kilka godzin dzisiaj rano na Replit, budując coś (zacząłem od kodu z artefaktu Claude'a) i jestem zachwycony Replit.
To naprawdę magiczne doświadczenie programistyczne, zarówno na froncie UX, jak i na zapleczu.
Teraz będę robił całe moje kodowanie wibracyjne tam.
19,45K
Najlepsze
Ranking
Ulubione
Trendy onchain
Trendy na X
Niedawne największe finansowanie
Najbardziej godne uwagi