Man mano che l'AI si sposta nei robot, nell'aviazione e nella chirurgia, una domanda è più importante delle prestazioni: Chi è responsabile quando qualcosa va storto? Questa intervista con il co-fondatore di @inference_labs @colingagich approfondisce l'inferenza verificabile, le garanzie crittografiche e perché la fiducia è il livello mancante per l'AI fisica. TIMESTAMPS: 00:00 — Introduzione a Inference Labs e alla sua missione 03:29 — Sistemi di verifica e audit dell'AI core 05:51 — Perché il Web3 è necessario per la fiducia nell'AI 11:28 — Robotica, sicurezza e responsabilità 18:52 — Fiducia uomo-robot e il futuro