Alignement et Sécurité
Red Teaming
Processus systématique d'évaluation des vulnérabilités des modèles par des experts cherchant activement à provoquer des comportements indésirables ou dangereux pour identifier et corriger les faiblesses.
← Retour