Keamanan AI bukanlah hal yang cocok untuk semua; Ini sangat spesifik secara budaya. Menemukan makalah Linguasafe ini dan benar-benar menyoroti sesuatu yang penting bagi siapa saja yang membangun AI untuk audiens global. Cukup menerjemahkan prompt berbahaya dari bahasa Inggris bisa menjadi jailbreak yang efektif. Perintah yang sama yang "aman" dalam bahasa Inggris menjadi "tidak aman" dalam bahasa lain, jadi Anda memerlukan data asli yang nyata untuk menangkap masalah ini.
8,07K