Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

VraserX e/acc
Lärare i hjärtat, AI-entusiast i nyfikenhet, passionerad för att inspirera sinnen, utforska teknik och göra lärandet spännande, mänskligt och framtidsfokuserat!
Longevity Escape Velocity kommer inte att vara jämlikt, åtminstone inte till en början.
Här är min uppfattning:
Vi kommer sannolikt att slå det för de ultrarika i slutet av 2030-talet eller början av 2040-talet, men för resten av oss? Inte förrän i slutet av 2050-talet.
Varför? Eftersom framsteg inom bioteknik inte är linjära, är de begränsade av kapital, beräkning och samordning.
Det första decenniet av verkliga genombrott för livslängd kommer att vara bakom betalvägg. Personlig cellulär föryngring, nanomedicin och AI-styrda genterapier kommer att kosta miljoner per år. Endast miljardärer och stora investerare kommer att finansiera early access.
2. Beräkning: Livslängd kommer att bli ett AI-problem. Träning av biologiska modeller på molekylär dynamik, proteomsimuleringar och individualiserade åldrandebanor kommer att kräva beräkningskluster som är lika stora som nationer. Samma GPU:er som tränade GPT-7 kommer att designa dina nya mitokondrier.
3. Samordning: Regeringar rör sig långsamt, etiska nämnder långsammare. Reglering, försäkring och klinisk infrastruktur kommer att släpa efter med 15–20 år. När det offentliga hälso- och sjukvårdssystemet kommer ikapp kommer eliten redan att vara biologiskt yngre än några decennier.
Så ja, flykthastigheten är på väg.
Bara ojämnt fördelat.
De rika kommer att få 20 extra år av livet, som de kommer att använda för att finansiera nästa generation av föryngringsteknik som så småningom sipprar ner. För resten av oss kommer livslängden att komma som alla revolutioner gör:
För sent för de första drömmarna, men precis i tid för deras barn.

5,99K
OpenAI:s beräkningstillväxt har precis blivit nukleär
Det vi ser just nu är att den industriella eran möter intelligenserans ambitioner.
OpenAI har precis tillkännagivit ytterligare en Stargate, den här gången i Michigan, vilket lägger till mer än en gigawatt kraftkapacitet till sin AI-infrastruktur.
Låt det sjunka in: en enda gigawatt-plats motsvarar ungefär energianvändningen i en hel stad.
Och det här är inte en engångsföreteelse.
De staplar gigawatt i Texas, New Mexico, Wisconsin, Ohio och nu Michigan, i samarbete med Oracle och SoftBank. Det är 8+ GW redan inlåsta och 450 miljarder dollar avsatta, på väg mot 10 GW och 500 miljarder dollar till 2028.
Vi talar om miljontals GPU:er, nätverkade över kontinenter, som bildar ett intelligenssubstrat på planetarisk skala.
Det här är inte "ett stort datacenter".
Detta är födelsen av världens kognitiva infrastruktur.
Om du fortfarande tänker i termer av "appar" eller "modeller" saknar du det. Detta är den industriella utbyggnaden av AGI, den fysiska ryggraden i den post-humana ekonomin.
Compute är den nya oljan.
Datacenter är de nya städerna.
Och gränsen är inte längre digital, det är syntetisk kognition.
Historieböckerna kommer att markera detta årtionde som det ögonblick då mänskligheten industrialiserade intelligensen själv.

1,89K
Håll i er: Jag förutspår att OpenAI i slutet av nästa år kommer att släppa lös äkta AGI (Artificial General Intelligence).
Okej, lyssna på mig, för jag gör ett vilt men motiverat argument, och jag vill att du rider på denna våg av möjligheter med mig:
1. Beräkna explosion
OpenAI säger redan att de kommer att passera över en miljon GPU:er i sin infrastruktur i år.
Föreställ dig nu att siffran förstärks av flera datacenter (Texas, Förenade Arabemiraten, Norge) som länkas via den så kallade "Stargate"-utbyggnaden. Med flera geografiska regioner, elnät och kylkanaler anslutna tittar du på en uppskalning i storleksordning.
Den här typen av beräkning ger tillbaka kraften att träna riktigt stora modeller, realtidssystem, multimodal inlärning, minne, anpassning.
2. Kontinuerligt lärande via SEAL
Det finns ny forskning från MIT om ett ramverk som kallas SEAL (Self-Adapting Language Models) som gör det möjligt för en modell att generera sina egna finjusterande data, uppdatera sig själv som svar på ny kunskap och behålla dessa uppdateringar i sina vikter.
Så vad händer om OpenAI integrerar något liknande (eller en mer avancerad utveckling av det) i sin AGI-pipeline? Modellen sitter inte bara statisk, den matar in, utvärderar och uppdaterar. Det blir mer som en lärande organism.
3. Knäckande minne och adaptiv arkitektur
Inom AGI-forskning är ett hinder "statiska vikter, fixerad kunskap". Minnet (både kortvarigt, långsiktigt, episodiskt) är stort. Tanken här är: till nästa år kan OpenAI dra in arkitekturer med dynamisk minnesdirigering, beständiga självbiografiska stilbuffertar, sammanlänkade moduler som utvecklas.
Kombinera med uppskalningen av beräkning + kontinuerlig inlärningskapacitet = språnget från "mycket avancerad LLM" till något du rimligen skulle kalla AGI.
4.Rimlighet i tidsplanen
Ja, jag vet, "slutet av nästa år" låter ambitiöst. Men med tanke på takten i modelliteration, beräkningsskalning osv. är det inte löjligt. Den viktigaste hävstången är integration: beräkning + arkitektur + inlärningsloop + minne. Om OpenAI träffar alla fyra, boom.
5. Implikationer
Om AGI slår till då kommer vi att se fantastiska accelerationer inom automatisering, optimering och upptäckt.
•Eran med "AI-assistenter som lär sig med dig och för dig" blir verklig.
Det väcker enorma filosofiska, etiska, ekonomiska frågor (yay, din favoritterräng).
För dig, som en transhumanistisk VR-entusiast, betyder det att verktygen för radikal automatisering, forskning om livslängd etc. kommer att få ett kosmiskt uppsving.
Varningar (eftersom jag inte blint hypar utan att tänka)
•"AGI" är en luddig term. Jag definierar det som ett system med allmänna kognitiva förmågor på mänsklig nivå inom olika domäner (resonemang, inlärning, anpassning, minne).
•Ingenting garanterar att OpenAI kommer att integrera SEAL eller "cracked memory"-arkitekturer nästa år, det finns flaskhalsar inom teknik, ström, kylning, säkerhet, justering.
•Enbart skala är inte tillräckligt. En miljon GPU:er utan rätt arkitektur ger fortfarande minskande avkastning.
Förutsägelsen är djärv eftersom jag tror att vi är på väg in i en accelerationszon som är en gång på årtionden.
Så ja, jag sätter min flagga i sanden: OpenAI kommer att avslöja AGI i slutet av nästa år. Mekanismerna: massiva GPU-uppskalningar (noder i Texas, Förenade Arabemiraten, Norge), integration av kontinuerliga inlärningsloopar av SEAL-typ, minnesrik adaptiv arkitektur. Det här är den stora.

3,08K
Topp
Rankning
Favoriter

