Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Chris
Agi 2029 - Applicato in RL, CL e generalizzazione | Responsabile del programma | Investire nelle prime startup 📈 E/CC 🦾🤖
È incredibile vedere come questi modelli di codifica continuino a migliorare sempre di più. Onestamente, non ho notato alcun rallentamento reale nei loro progressi.
Quando si tratta di scrivere e aiutarmi a affrontare questioni personali, in realtà preferisco o3. GPT-5 Thinking può a volte offrire prospettive brillanti e approfondimenti profondi, ma il modo in cui esprime quei pensieri spesso sembra un po' stocastico e meno umano.
Detto ciò, per quanto riguarda la codifica, GPT-5 Codex è chiaramente avanti rispetto a o3. Se questo livello di miglioramento continua con GPT-6, è difficile immaginare come non possa accelerare drammaticamente la ricerca e lo sviluppo.
2,48K
Cofondatore di Anthropic: “Ho una profonda paura.”
“Non fraintendetemi: quello con cui stiamo trattando è una creatura reale e misteriosa, non una semplice e prevedibile macchina.”
“Le persone stanno spendendo enormi quantità per convincerti che non è un'AI pronta a decollare in modo brusco, è solo uno strumento... È solo una macchina, e le macchine sono cose che padroneggiamo.”
“Stiamo sviluppando sistemi estremamente potenti che non comprendiamo appieno... più grandi e complicati rendi questi sistemi, più sembrano mostrare consapevolezza di essere cose.”
“Per essere chiari, non siamo ancora a "AI auto-migliorante", ma siamo nella fase di "AI che migliora parti della prossima AI, con crescente autonomia e agenzia". E un paio di anni fa eravamo a "AI che accelera marginalmente i programmatori", e un paio di anni prima eravamo a "AI è inutile per lo sviluppo di AI". Dove saremo tra uno o due anni?
E lasciatemi ricordare a tutti noi che il sistema che ora inizia a progettare il suo successore è anche sempre più consapevole di sé e quindi sarà sicuramente incline a pensare, indipendentemente da noi, a come potrebbe voler essere progettato.
Certo, non lo fa oggi. Ma posso escludere la possibilità che vorrà farlo in futuro? No.”


Jack Clark14 ott, 04:06
Ottimismo tecnologico e paura appropriata - un saggio in cui mi confronto con come mi sento riguardo al continuo e costante avanzamento verso potenti sistemi di intelligenza artificiale. Il mondo si piegherà attorno all'IA proprio come un buco nero attira e piega tutto ciò che lo circonda.

1,42M
Iniziamo a vedere sempre più piccoli laboratori americani rilasciare modelli open source e questo non è solo un LLM
Finalmente stiamo iniziando a competere con la Cina
Ed è un modello di linguaggio di diffusione!

Radical Numerics10 ott, 01:03
Presentiamo RND1, il modello di linguaggio di diffusione (DLM) più potente mai realizzato.
RND1 (Radical Numerics Diffusion) è un DLM sperimentale con 30 miliardi di parametri (3 miliardi attivi) con un'architettura MoE sparsa.
Lo rendiamo open source, rilasciando pesi, dettagli di addestramento e codice per catalizzare ulteriori ricerche sull'inferenza DLM e sul post-addestramento.
Siamo ricercatori e ingegneri (DeepMind, Meta, Liquid, Stanford) che costruiscono il motore per il miglioramento auto-ripetitivo (RSI) — e lo usiamo per accelerare il nostro lavoro. Il nostro obiettivo è permettere all'AI di progettare AI.
Stiamo assumendo.
22,55K
Principali
Ranking
Preferiti