Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Chris
Agi 2029 - Anvendt i RL, CL og generalisering | Programleder | Investering i tidlige oppstartsbedrifter 📈 E/CC 🦾🤖
Det er utrolig å se hvordan disse kodemodellene bare blir bedre og bedre. Jeg har ærlig talt ikke lagt merke til noen reell nedgang i fremgangen deres.
Når det gjelder å skrive og hjelpe meg med å jobbe gjennom personlige problemer, foretrekker jeg faktisk o3. GPT-5 Thinking kan noen ganger tilby strålende perspektiver og dyp innsikt, men måten den uttrykker disse tankene på føles ofte litt stokastisk og mindre menneskelig.
Når det er sagt, på kodesiden er GPT-5 Codex klart foran o3. Hvis dette forbedringsnivået fortsetter med GPT-6, er det vanskelig å forestille seg hvordan det ikke dramatisk vil akselerere forskning og utvikling.
2,48K
Antropisk medgrunnlegger: «Jeg er dypt redd.'»
«Ta ikke feil: det vi har å gjøre med er en ekte og mystisk skapning, ikke en enkel og forutsigbar maskin.»
«Folk bruker enorme beløp på å overbevise deg om at det ikke er en AI som er i ferd med å gå inn i en hard start, det er bare et verktøy ... Det er bare en maskin, og maskiner er ting vi mestrer.»
«Vi utvikler ekstremt kraftige systemer som vi ikke helt forstår ... Jo større og mer komplisert du gjør disse systemene, jo mer ser de ut til å vise bevissthet om at de er ting"
«For å være tydelig, vi er ennå ikke på «selvforbedrende Al», men vi er på stadiet med «Al som forbedrer biter av det neste Al, med økende autonomi og handlefrihet». Og for et par år siden var vi på "Al som marginalt øker hastigheten på kodere", og et par år før det var vi på "Al er ubrukelig for Al-utvikling". Hvor vil vi være om ett eller to år?
Og la meg minne oss alle om at systemet som nå begynner å designe sin etterfølger også er stadig mer selvbevisst og derfor sikkert til slutt vil være tilbøyelig til å tenke, uavhengig av oss, om hvordan det kan ønske å bli utformet.
Selvfølgelig gjør den ikke dette i dag. Men kan jeg utelukke muligheten for at den vil ønske å gjøre dette i fremtiden? Nei.»


Jack Clark14. okt., 04:06
Teknologisk optimisme og passende frykt - et essay der jeg kjemper med hva jeg føler om den fortsatte stødige marsjen mot kraftige AI-systemer. Verden vil bøye seg rundt AI på samme måte som hvordan et sort hull trekker og bøyer alt rundt seg selv.

1,42M
Begynner å se flere og flere små amerikanske laboratorier gi ut åpen kildekode-modeller, og denne er ikke bare en LLM
Endelig begynner å konkurrere med Kina
Og det er en diffusjonsspråkmodell!

Radical Numerics10. okt., 01:03
Vi introduserer RND1, den kraftigste basisdiffusjonsspråkmodellen (DLM) til dags dato.
RND1 (Radical Numerics Diffusion) er en eksperimentell DLM med 30B-paramer (3B aktiv) med en sparsom MoE-arkitektur.
Vi gjør det åpen kildekode, og gir ut vekter, treningsdetaljer og kode for å katalysere videre forskning på DLM-slutning og ettertrening.
Vi er forskere og ingeniører (DeepMind, Meta, Liquid, Stanford) som bygger motoren for rekursiv selvforbedring (RSI) – og bruker den til å akselerere vårt eget arbeid. Målet vårt er å la AI designe AI.
Vi ansetter.
22,55K
Topp
Rangering
Favoritter