Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

VraserX e/acc
Nauczyciel z zamiłowania, entuzjasta sztucznej inteligencji z ciekawości, pasjonat inspirowania umysłów, odkrywania technologii i sprawiania, że nauka jest ekscytująca, ludzka i skoncentrowana na przyszłości!
Witamy w erze ucieczki przed starzeniem się, która nie będzie egalitarna, przynajmniej na początku.
Oto moje zdanie:
Prawdopodobnie osiągniemy to dla ultra-bogaczy pod koniec lat 30. lub na początku lat 40., ale dla reszty z nas? Nie wcześniej niż pod koniec lat 50.
Dlaczego? Ponieważ postęp w biotechnologii nie jest liniowy, jest ograniczany przez kapitał, moc obliczeniową i koordynację.
Pierwsza dekada prawdziwych przełomów w dziedzinie długowieczności będzie płatna. Spersonalizowana regeneracja komórkowa, nanomedycyna i terapie genowe prowadzone przez AI będą kosztować miliony rocznie. Tylko miliarderzy i główni inwestorzy będą finansować wczesny dostęp.
2. Moc obliczeniowa: Długowieczność stanie się problemem AI. Szkolenie modeli biologicznych na podstawie dynamiki molekularnej, symulacji proteomu i zindywidualizowanych trajektorii starzenia się będzie wymagało klastrów obliczeniowych wielkości narodów. Te same GPU, które trenowały GPT-7, zaprojektują twoje nowe mitochondria.
3. Koordynacja: Rządy działają wolno, a komisje etyczne jeszcze wolniej. Regulacje, ubezpieczenia i infrastruktura kliniczna będą opóźnione o 15–20 lat. W momencie, gdy system ochrony zdrowia publicznego nadrobi zaległości, elity będą już biologicznie o dekady młodsze.
Więc tak, prędkość ucieczki nadchodzi.
Po prostu nierówno rozłożona.
Bogaci zyskają dodatkowe 20 lat życia, które wykorzystają na finansowanie następnej generacji technologii odmładzającej, która ostatecznie dotrze do reszty z nas. Dla reszty z nas długowieczność przyjdzie tak, jak wszystkie rewolucje:
za późno dla pierwszych marzycieli, ale akurat na czas dla ich dzieci.

5,97K
Wzrost mocy obliczeniowej OpenAI właśnie osiągnął poziom nuklearny
To, co teraz obserwujemy, to spotkanie skali ery przemysłowej z ambicjami ery inteligencji.
OpenAI właśnie ogłosiło kolejny Stargate, tym razem w Michigan, dodając ponad gigawat mocy do swojej infrastruktury AI.
Niech to do Ciebie dotrze: pojedyncza lokalizacja o mocy jednego gigawata jest w przybliżeniu równoznaczna z zużyciem energii całego miasta.
I to nie jest jednorazowe.
Zbierają gigawaty w Teksasie, Nowym Meksyku, Wisconsin, Ohio, a teraz w Michigan, we współpracy z Oracle i SoftBank. To już ponad 8 GW zablokowane i 450 miliardów dolarów zobowiązane, w drodze do 10 GW i 500 miliardów dolarów do 2028 roku.
Mówimy o milionach GPU, połączonych na kontynentach, tworzących inteligencję na skalę planetarną.
To nie jest "duże centrum danych."
To narodziny światowej infrastruktury kognitywnej.
Jeśli nadal myślisz w kategoriach "aplikacji" lub "modeli", to to umyka Ci. To jest przemysłowa budowa AGI, fizyczny kręgosłup post-ludzkiej gospodarki.
Obliczenia to nowa ropa naftowa.
Centra danych to nowe miasta.
A granica nie jest już cyfrowa, to syntetyczna kognicja.
Podręczniki historii będą oznaczać tę dekadę jako moment, w którym ludzkość zindustrializowała samą inteligencję.

1,87K
Przygotujcie się: przewiduję, że do końca przyszłego roku OpenAI uwolni prawdziwą AGI (Sztuczną Ogólną Inteligencję).
Dobrze, posłuchajcie mnie, bo przedstawiam dziką, ale uzasadnioną tezę i chcę, żebyście razem ze mną podążali za tą falą możliwości:
1. Eksplozja obliczeń
OpenAI już mówi, że w tym roku przekroczy dobrze ponad milion GPU w swojej infrastrukturze.
Wyobraźcie sobie, że ta liczba zostanie pomnożona przez wiele centrów danych (Teksas, ZEA, Norwegia) połączonych za pomocą tzw. „Stargate”. Z wieloma regionami geograficznymi, sieciami energetycznymi i kanałami chłodzenia, mamy do czynienia z wielkością skali.
Tego rodzaju obliczenia dają moc do trenowania naprawdę ogromnych modeli, systemów w czasie rzeczywistym, uczenia wielomodalnego, pamięci, adaptacji.
2. Ciągłe uczenie się za pomocą SEAL
Istnieją niedawne badania z MIT na temat ramienia o nazwie SEAL (Self-Adapting Language Models), które umożliwia modelowi generowanie własnych danych do dostosowywania, aktualizowanie się w odpowiedzi na nową wiedzę i utrzymywanie tych aktualizacji w swoich wagach.
A co jeśli OpenAI zintegrowałoby coś takiego (lub bardziej zaawansowaną ewolucję tego) w swoim pipeline AGI? Model nie siedzi statycznie, wchłania, ocenia, aktualizuje. Staje się bardziej jak uczący się organizm.
3. Rozwiązywanie pamięci i adaptacyjna architektura
W badaniach AGI jednym z barier jest „statyczna waga, stała wiedza”. Pamięć (zarówno krótkoterminowa, długoterminowa, jak i epizodyczna) jest ogromna. Idea jest taka: do przyszłego roku OpenAI mogłoby wprowadzić architektury z dynamicznym routowaniem pamięci, trwałymi buforami autobiograficznymi, powiązanymi modułami, które ewoluują.
Połączenie z zwiększeniem mocy obliczeniowej + zdolnością do ciągłego uczenia się = skok z „bardzo zaawansowanego LLM” do czegoś, co można by rozsądnie nazwać AGI.
4. Wiarygodność harmonogramu
Tak, wiem, że „koniec przyszłego roku” brzmi ambitnie. Ale biorąc pod uwagę tempo iteracji modeli, skalowanie obliczeń itd., to nie jest absurdalne. Kluczowym dźwignią jest integracja: obliczenia + architektura + pętla uczenia + pamięć. Jeśli OpenAI zrealizuje wszystkie cztery, bum.
5. Implikacje
• Jeśli AGI się pojawi, zobaczymy oszałamiające przyspieszenia w automatyzacji, optymalizacji, odkryciach.
• Era „asystentów AI, którzy uczą się z tobą i dla ciebie” staje się rzeczywistością.
• Rodzi to ogromne pytania filozoficzne, etyczne, ekonomiczne (hurra, twoje ulubione terytorium).
• Dla ciebie, jako transhumanisty i entuzjasty VR, oznacza to, że narzędzia do radykalnej automatyzacji, badań nad długowiecznością itd. zyskają kosmiczny impuls.
Zastrzeżenia (bo nie hype'uję bezmyślnie)
• „AGI” to nieostre pojęcie. Definiuję to jako system z ogólnymi zdolnościami poznawczymi na poziomie ludzkim w różnych dziedzinach (rozumowanie, uczenie się, adaptacja, pamięć).
• Nic nie gwarantuje, że OpenAI zintegrowałoby SEAL lub architektury w stylu „rozwiązanej pamięci” w przyszłym roku, istnieją ograniczenia inżynieryjne, energetyczne, chłodzące, bezpieczeństwa, dostosowania.
• Sama skala nie jest wystarczająca. Milion GPU bez odpowiedniej architektury nadal przynosi malejące zyski.
• Przewidywanie jest odważne, ponieważ wierzę, że wkraczamy w strefę przyspieszenia, która zdarza się raz na dekady.
Więc tak, stawiam swoją flagę w piasku: OpenAI ujawni AGI do końca przyszłego roku. Mechanizmy: masowe zwiększenie GPU (węzły w Teksasie, ZEA, Norwegii), integracja pętli ciągłego uczenia się w stylu SEAL, architektura bogata w pamięć. To jest to wielkie.

3,06K
Najlepsze
Ranking
Ulubione

