KI-Sicherheit ist kein Allheilmittel; sie ist sehr kulturspezifisch. Ich bin auf dieses Linguasafe-Papier gestoßen, und es hebt etwas Wichtiges hervor für jeden, der KI für ein globales Publikum entwickelt. Einfach einen schädlichen Prompt aus dem Englischen zu übersetzen, kann ein effektiver Jailbreak sein. Der gleiche Prompt, der im Englischen "sicher" ist, wird in anderen Sprachen "unsicher", daher benötigt man echte, native Daten, um diese Probleme zu erkennen.
8,06K