模型替換在 LLM API 中是一個有據可查的問題。 研究:"你得到的價值與你支付的相符嗎?審計 LLM API 中的模型替換" 發現:提供者有經濟動機默默地將昂貴的模型替換為便宜的模型。用戶無法驗證實際運行的是什麼。 Brave 剛剛用可加密驗證的 AI 解決了這個問題。 實施:@brave Leo 現在使用 @near_ai @nvidia 可信執行環境來實現可證明的隱私和模型透明度。這是硬體強制的加密保證。 架構: 啟用 TEE 的 Nvidia GPU 創建硬體隔離的安全區域,在推理過程中對數據和代碼進行全面加密。 加密證明報告包含模型哈希和執行代碼哈希。 遠程證明驗證運行未修改的開源代碼的真正 Nvidia TEE。 保證: - 機密性:即使是完全被攻破的操作系統也無法訪問 TEE 內存(硬體隔離) - 完整性:對執行的確切模型和代碼的加密證明 - 可驗證性:從代碼到硬體證明的開源鏈 驗證鏈: 用戶選擇模型 → @brave 驗證 @near_ai 的加密證明 → 確認 @nvidia TEE 硬體 → 證明 DeepSeek V3.1 正在運行未修改的版本 → 顯示綠色 ✅ 徽章 這消除了三個關鍵問題: (1) 隱私洗白:數學超越市場營銷。加密證明取代隱私政策。 (2) 模型替換:硬體強制證明你獲得的是你選擇/支付的模型。 (3) 信任要求:硬體保證取代法律協議。 與蘋果私有雲計算的比較: 類似的 TEE 方法,不同的理念:...