Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
C'est l'histoire de deux chercheurs de Stanford – @jakub_smekal (KB7) et @InferenceActive (KB5) – explorant l'un des cadres les plus englobants en intelligence artificielle.
Le cadre d'inférence active de Karl Friston décrit comment tous les organismes minimisent "l'énergie libre" - la différence entre les états attendus et la réalité perçue.
"Nous échantillonnons le monde pour nous assurer que nos prédictions deviennent une prophétie auto-réalisatrice," a écrit un jour Friston.
L'inférence active dialogue avec d'autres paradigmes de l'IA comme l'apprentissage par renforcement et le traitement prédictif.
Daniel et Jakub ont coécrit plusieurs articles de recherche sur le sujet, y compris la Notation Généralisée (GNN), un langage standardisé basé sur du texte qui fait le lien entre théorie et mise en œuvre à travers différentes sciences et disciplines.
Le doctorat de Jakub a évolué de l'inférence active vers des modèles d'espace d'état profonds (SSMs).
"Une grande partie de mon travail consiste à minimiser l'incertitude," nous a dit Jakub, avant de réfléchir, "Je suppose que c'est le jeu auquel tout le monde (dans l'IA) joue."
Des cellules aux modèles d'IA en passant par les sociétés, nous approfondissons tous notre relation à la surprise. Préparez-vous à l'inattendu.
Lisez-en plus sur notre S-bst-k, et faites-nous savoir si vous connaissez d'autres personnes travaillant sur des recherches qui devraient être mises en avant sur No Signal ou explorées avec nous dans @Kernel0x.

1,52K
Meilleurs
Classement
Favoris