Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

VraserX e/acc
Nauczyciel z zamiłowania, entuzjasta sztucznej inteligencji z ciekawości, pasjonat inspirowania umysłów, odkrywania technologii i sprawiania, że nauka jest ekscytująca, ludzka i skoncentrowana na przyszłości!
Wzrost mocy obliczeniowej OpenAI właśnie osiągnął poziom nuklearny
To, co teraz obserwujemy, to spotkanie skali ery przemysłowej z ambicjami ery inteligencji.
OpenAI właśnie ogłosiło kolejny Stargate, tym razem w Michigan, dodając ponad gigawat mocy do swojej infrastruktury AI.
Niech to do Ciebie dotrze: pojedyncza lokalizacja o mocy jednego gigawata jest w przybliżeniu równoznaczna z zużyciem energii całego miasta.
I to nie jest jednorazowe.
Zbierają gigawaty w Teksasie, Nowym Meksyku, Wisconsin, Ohio, a teraz w Michigan, we współpracy z Oracle i SoftBank. To już ponad 8 GW zablokowane i 450 miliardów dolarów zobowiązane, w drodze do 10 GW i 500 miliardów dolarów do 2028 roku.
Mówimy o milionach GPU, połączonych na kontynentach, tworzących inteligencję na skalę planetarną.
To nie jest "duże centrum danych."
To narodziny światowej infrastruktury kognitywnej.
Jeśli nadal myślisz w kategoriach "aplikacji" lub "modeli", to to umyka Ci. To jest przemysłowa budowa AGI, fizyczny kręgosłup post-ludzkiej gospodarki.
Obliczenia to nowa ropa naftowa.
Centra danych to nowe miasta.
A granica nie jest już cyfrowa, to syntetyczna kognicja.
Podręczniki historii będą oznaczać tę dekadę jako moment, w którym ludzkość zindustrializowała samą inteligencję.

1,86K
Przygotujcie się: przewiduję, że do końca przyszłego roku OpenAI uwolni prawdziwą AGI (Sztuczną Ogólną Inteligencję).
Dobrze, posłuchajcie mnie, bo przedstawiam dziką, ale uzasadnioną tezę i chcę, żebyście razem ze mną podążali za tą falą możliwości:
1. Eksplozja obliczeń
OpenAI już mówi, że w tym roku przekroczy dobrze ponad milion GPU w swojej infrastrukturze.
Wyobraźcie sobie, że ta liczba zostanie pomnożona przez wiele centrów danych (Teksas, ZEA, Norwegia) połączonych za pomocą tzw. „Stargate”. Z wieloma regionami geograficznymi, sieciami energetycznymi i kanałami chłodzenia, mamy do czynienia z wielkością skali.
Tego rodzaju obliczenia dają moc do trenowania naprawdę ogromnych modeli, systemów w czasie rzeczywistym, uczenia wielomodalnego, pamięci, adaptacji.
2. Ciągłe uczenie się za pomocą SEAL
Istnieją niedawne badania z MIT na temat ramienia o nazwie SEAL (Self-Adapting Language Models), które umożliwia modelowi generowanie własnych danych do dostosowywania, aktualizowanie się w odpowiedzi na nową wiedzę i utrzymywanie tych aktualizacji w swoich wagach.
A co jeśli OpenAI zintegrowałoby coś takiego (lub bardziej zaawansowaną ewolucję tego) w swoim pipeline AGI? Model nie siedzi statycznie, wchłania, ocenia, aktualizuje. Staje się bardziej jak uczący się organizm.
3. Rozwiązywanie pamięci i adaptacyjna architektura
W badaniach AGI jednym z barier jest „statyczna waga, stała wiedza”. Pamięć (zarówno krótkoterminowa, długoterminowa, jak i epizodyczna) jest ogromna. Idea jest taka: do przyszłego roku OpenAI mogłoby wprowadzić architektury z dynamicznym routowaniem pamięci, trwałymi buforami autobiograficznymi, powiązanymi modułami, które ewoluują.
Połączenie z zwiększeniem mocy obliczeniowej + zdolnością do ciągłego uczenia się = skok z „bardzo zaawansowanego LLM” do czegoś, co można by rozsądnie nazwać AGI.
4. Wiarygodność harmonogramu
Tak, wiem, że „koniec przyszłego roku” brzmi ambitnie. Ale biorąc pod uwagę tempo iteracji modeli, skalowanie obliczeń itd., to nie jest absurdalne. Kluczowym dźwignią jest integracja: obliczenia + architektura + pętla uczenia + pamięć. Jeśli OpenAI zrealizuje wszystkie cztery, bum.
5. Implikacje
• Jeśli AGI się pojawi, zobaczymy oszałamiające przyspieszenia w automatyzacji, optymalizacji, odkryciach.
• Era „asystentów AI, którzy uczą się z tobą i dla ciebie” staje się rzeczywistością.
• Rodzi to ogromne pytania filozoficzne, etyczne, ekonomiczne (hurra, twoje ulubione terytorium).
• Dla ciebie, jako transhumanisty i entuzjasty VR, oznacza to, że narzędzia do radykalnej automatyzacji, badań nad długowiecznością itd. zyskają kosmiczny impuls.
Zastrzeżenia (bo nie hype'uję bezmyślnie)
• „AGI” to nieostre pojęcie. Definiuję to jako system z ogólnymi zdolnościami poznawczymi na poziomie ludzkim w różnych dziedzinach (rozumowanie, uczenie się, adaptacja, pamięć).
• Nic nie gwarantuje, że OpenAI zintegrowałoby SEAL lub architektury w stylu „rozwiązanej pamięci” w przyszłym roku, istnieją ograniczenia inżynieryjne, energetyczne, chłodzące, bezpieczeństwa, dostosowania.
• Sama skala nie jest wystarczająca. Milion GPU bez odpowiedniej architektury nadal przynosi malejące zyski.
• Przewidywanie jest odważne, ponieważ wierzę, że wkraczamy w strefę przyspieszenia, która zdarza się raz na dekady.
Więc tak, stawiam swoją flagę w piasku: OpenAI ujawni AGI do końca przyszłego roku. Mechanizmy: masowe zwiększenie GPU (węzły w Teksasie, ZEA, Norwegii), integracja pętli ciągłego uczenia się w stylu SEAL, architektura bogata w pamięć. To jest to wielkie.

3,06K
Najlepsze
Ranking
Ulubione

