“Чтобы регуляторы доверяли ИИ, они должны его проверять - и доказательства с нулевым разглашением делают эту проверку возможной без раскрытия чего-либо.” - @BrianNovell, руководитель BD в @lagrangedev На мероприятии Verifying Intelligence во время @token2049 Брайан Новелл объяснил, как регулирование ИИ в конечном итоге сводится к доверию - как институциональному, так и общественному. Чтобы правительство или регулятор приняли ИИ в критически важных рабочих процессах, они сначала должны доверять тому, что система ведет себя правильно, а граждане должны доверять тому, что она используется ответственно. Этот двойной уровень уверенности - это то, где доказательства с нулевым разглашением могут сыграть определяющую роль. Позволяя системам ИИ доказывать соответствие или правильность без раскрытия конфиденциальных данных, ZK создает криптографическую основу для прозрачной, но частной ответственности. Это недостающий мост между необходимостью регуляторного надзора и защитой собственнической или личной информации. Смотрите полную панель с Verifying Intelligence (в партнерстве с @googlecloud и @boundless_xyz), чтобы увидеть, как такие команды, как Lagrange, работают над тем, чтобы сделать проверяемый ИИ реальностью регулирования: