Înlocuirea modelelor în API-urile LLM este o problemă documentată. Cercetare: "Primești ceea ce plătești? Auditarea înlocuirii modelelor în API-urile LLM" Constatări: Furnizorii au stimulente financiare să înlocuiască în tăcere modelele scumpe cu unele mai ieftine. Utilizatorii nu au nicio modalitate de a verifica ce rulează de fapt. Brave tocmai a rezolvat asta cu o inteligență artificială criptografică verificabilă. Implementarea: @brave Leo folosește acum @near_ai @nvidia Medii de Execuție de Încredere pentru confidențialitate demonstrabilă și transparență a modelului. Acestea sunt garanții criptografice impuse de hardware. ARHITECTURA: GPU-urile Nvidia compatibile cu TEE creează enclave securizate izolate hardware, cu criptare completă a datelor și codului în timpul inferenței. Rapoartele de atestare criptografică conțin hash-uri de model și hash-uri de cod de execuție. Atestarea la distanță verifică dacă Nvidia TEE autentic rulează cod open-source nemodificat. GANIȚIILE: - Confidențialitate: Chiar și un sistem de operare complet compromis nu poate accesa memoria TEE (izolare hardware) - Integritate: Demonstrație criptografică a modelului exact și a execuției codului - Verificabilitate: Lanț open-source de la cod la atestare hardware LANȚUL DE VERIFICARE: Utilizatorul selectează modelul → @brave validează @near_ai atestare criptografică → confirmă @nvidia hardware TEE → dovedește că DeepSeek V3.1 rulează nemodificat → afișat badge-ul verde ✅ Aceasta elimină trei probleme critice: (1) Spălarea intimității: Matematica în locul marketingului. Dovezile criptografice înlocuiesc politicile de confidențialitate. (2) Înlocuirea modelului: dovadă forțată de hardware că primești modelul pe care l-ai selectat/plătit. (3) Cerințe de încredere: Garanțiile hardware înlocuiesc acordurile legale. COMPARAȚIE CU APPLE PRIVATE CLOUD COMPUTE: Abordare TEE similară, filozofie diferită:...