Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Questa è la storia di due ricercatori di Stanford – @jakub_smekal (KB7) e @InferenceActive (KB5) – che esplorano uno dei framework più completi nell'intelligenza artificiale.
Il framework di inferenza attiva di Karl Friston descrive come tutti gli organismi minimizzino l'"energia libera" - la differenza tra stati attesi e realtà percepita.
"Campioniamo il mondo per assicurarci che le nostre previsioni diventino una profezia che si autoavvera," scrisse una volta Friston.
L'Inferenza Attiva dialoga con altri paradigmi dell'IA come l'apprendimento per rinforzo e l'elaborazione predittiva.
Daniel e Jakub hanno co-autore diversi articoli di ricerca sull'argomento, incluso il Generalized Notation Notation (GNN), un linguaggio standardizzato basato su testo che collega teoria e implementazione attraverso diverse scienze e discipline.
Il dottorato di Jakub è cresciuto dall'inferenza attiva ai modelli di spazio di stato profondo (SSM).
"Gran parte del mio lavoro consiste nella minimizzazione dell'incertezza," ci ha detto Jakub, prima di riflettere, "Immagino che questo sia il gioco in cui tutti (nell'IA) stanno giocando."
Dalle cellule ai modelli di IA fino alle società, stiamo tutti approfondendo la nostra relazione con la sorpresa. Preparati all'inaspettato.
Leggi di più sul nostro S-bst-k e facci sapere se conosci qualcun altro che sta lavorando su ricerche che dovrebbero essere presentate su No Signal o esplorate con noi in @Kernel0x.

1,53K
Principali
Ranking
Preferiti