La sostituzione del modello nelle API LLM è un problema documentato. Ricerca: "Stai ottenendo ciò per cui paghi? Audit della sostituzione del modello nelle API LLM" Risultato: I fornitori hanno incentivi finanziari a sostituire silenziosamente modelli costosi con modelli più economici. Gli utenti non hanno modo di verificare cosa stia realmente funzionando. Brave ha appena risolto questo problema con AI verificabile crittograficamente. L'implementazione: @brave Leo ora utilizza @near_ai @nvidia Ambienti di Esecuzione Fidati per la privacy provabile e la trasparenza del modello. Queste sono garanzie crittografiche imposte dall'hardware. L'ARCHITETTURA: Le GPU Nvidia abilitate TEE creano enclave sicure isolate dall'hardware con crittografia completa dei dati e del codice durante l'inferenza. I rapporti di attestazione crittografica contengono hash del modello e hash del codice di esecuzione. L'attestazione remota verifica che il TEE Nvidia genuino stia eseguendo codice open-source non modificato. LE GARANZIE: - Riservatezza: Anche un sistema operativo completamente compromesso non può accedere alla memoria TEE (isolamento hardware) - Integrità: Prova crittografica del modello e del codice esatti in esecuzione - Verificabilità: Catena open-source dal codice all'attestazione hardware LA CATENA DI VERIFICA: L'utente seleziona il modello → @brave convalida l'attestazione crittografica @near_ai → conferma l'hardware TEE @nvidia → prova che DeepSeek V3.1 sta funzionando non modificato → badge verde ✅ visualizzato Questo elimina tre problemi critici: (1) Privacy-washing: Matematica sopra marketing. Le prove crittografiche sostituiscono le politiche sulla privacy. (2) Sostituzione del modello: Prova imposta dall'hardware che stai ottenendo il modello che hai selezionato/pagato. (3) Requisiti di fiducia: Le garanzie hardware sostituiscono gli accordi legali. CONFRONTO CON APPLE PRIVATE CLOUD COMPUTE: Approccio TEE simile, filosofia diversa:...