Alignement et Sécurité
Model Jailbreaking
Techniques d'attaques conçues pour contourner les mécanismes de sécurité et alignement des modèles, les forçant à générer du contenu normalement restreint ou interdit.
← Retour