a segurança da IA não é uma solução única para todos; é muito específica culturalmente. encontramos este artigo da linguasafe e ele realmente destaca algo importante para quem está construindo IA para um público global. simplesmente traduzir um prompt prejudicial do inglês pode ser um jailbreak eficaz. o mesmo prompt que é "seguro" em inglês torna-se "inseguro" em outras línguas, então você precisa de dados reais e nativos para identificar esses problemas.
8,14K