Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Anita AGI/acc
#CreatorPad 𓂀 prec. CMO @vlyai AMA host @four_meme_ | Produttore cinematografico , Giudizio a #SIFF | @NTUsg
Attualmente, la velocità di aggiornamento dell'AI sta aumentando in modo esponenziale, si consiglia di non approfondire troppo un singolo prodotto (eccetto per la ricerca), perché potrebbe darsi che le competenze che si stanno cercando di apprendere vengano superate in due settimane.
Cercate di provare il maggior numero possibile di prodotti, cercando di pensare alle caratteristiche dei diversi prodotti AI dal punto di vista di idea - intuizione - prodotto - pubblico.
Idealmente, tra un anno tutti i prodotti AI si ridurranno a richiedere solo NPL Prompt. La programmazione AI attuale è ancora un po' troppo difficile da usare.
112
gSenti! Costruttori di Sentient nella regione cinese 👂
Abbiamo intenzione di organizzare un salone del Rinascimento durante @consensus_hk a Hong Kong.
Immagina una stanza piena di costruttori, ingegneri, VC e contributor open source, tutti che scambiano idee brillanti su argomenti come AI Agent, strumenti, calcolo e decentralizzazione 🧠
Chi vuole venire? 👀

Sentient Ecosystem22 ore fa
sto pensando di organizzare un salone in stile rinascimentale a Hong Kong per @consensus_hk.
immagina una stanza piena di costruttori, ingegneri, investitori e contributori open-source, che scambiano idee brillanti su agenti AI, strumenti, calcolo e decentralizzazione.
chi c'è? 👀
142
Deepseek V4 torna a combattere per il Capodanno, facendo un grande passo avanti nella soluzione del problema della memoria dell'Agente con il lancio di Engram. La memoria è sempre stata un problema centrale e difficile.
Il cuore della questione è separare la memoria e il calcolo dell'AI.
Attualmente, il modello manca di un meccanismo di ricerca della conoscenza efficiente. Anche di fronte a fatti fissi come "Lady Diana", è necessario utilizzare reti neurali multilivello per "ridefinire", sprecando preziose risorse di calcolo.
Introducendo una nuova dimensione di "memoria condizionale", si forma una complementarità con l'attuale MoE (calcolo condizionale). Engram è il modulo di implementazione concreta di questa memoria condizionale.
La Silicon Valley non festeggia bene il Capodanno!


Anita AGI/acc8 gen, 22:25
La volatilità del prezzo delle azioni di NVDA ha un ulteriore ostacolo quest'anno.
DeepSeek ha presentato al CES di quest'anno il mHC (Manifold-Constrained Hyper-Connections, connessioni iper-constrained manifolds), una tecnologia simile ai wormhole, che attraverso calcoli matematici piega direttamente lo spazio tra il punto di partenza e quello di arrivo, stabilendo connessioni solo quando necessario.
Prima di questo, sia Sam Altman che Jensen Huang sono stati fermamente convinti delle Scaling Laws (leggi di scalabilità), ritenendo che Intelligenza = Potenza di calcolo × Dati. Basta accumulare schede in modo folle e il modello diventerà infinitamente più forte.
Tuttavia, il mHC di DeepSeek sfida direttamente la relazione lineare di questa formula.
La potenza di calcolo non è più l'unico collo di bottiglia; l'efficienza dell'architettura è il vero collo di bottiglia. Se l'algoritmo è abbastanza intelligente, l'attuale potenza di calcolo è in realtà eccessiva.
Questo rappresenta senza dubbio una grande sfida per il prezzo delle azioni di Nvidia, poiché i concorrenti non sono più aziende come AMD, ma il collasso strutturale della domanda dei clienti.

225
Principali
Ranking
Preferiti