AI-veiligheid is geen one-size-fits-all oplossing; het is zeer cultureel specifiek. Ik kwam dit linguasafe-document tegen en het benadrukt iets belangrijks voor iedereen die AI bouwt voor een wereldwijd publiek. Simpelweg een schadelijke prompt vanuit het Engels vertalen kan een effectieve jailbreak zijn. Dezelfde prompt die "veilig" is in het Engels, wordt "onveilig" in andere talen, dus je hebt echte, native data nodig om deze problemen op te vangen.
8,14K