AI Glossary
The complete dictionary of Artificial Intelligence
Test de Régression Modèle
Procédure automatisée vérifiant qu'un nouveau modèle ou une nouvelle version de pipeline ne dégrade pas les performances par rapport à une version de référence sur un jeu de données de test fixe.
Validation de Dérive de Données (Data Drift Validation)
Test automatisé qui compare la distribution statistique des nouvelles données de production à celle des données d'entraînement pour détecter des changements significatifs pouvant impacter la performance du modèle.
Test de Biais (Bias Testing)
Ensemble d'automates mesurant et quantifiant les préjugés systématiques d'un modèle à l'égard de sous-groupes démographiques spécifiques pour garantir l'équité et l'éthique algorithmique.
Test de Conformité (Compliance Testing)
Vérification automatisée qu'un modèle et ses données respectent les réglementations et standards en vigueur, tels que le RGPD pour la protection des données personnelles.
Test de Performance de Latence
Mesure automatisée du temps de réponse d'un modèle en conditions de charge, garantissant qu'il respecte les exigences de temps réel pour une application en production.
Validation de la Cohérence des Features
Test automatisé qui s'assure que les caractéristiques (features) calculées par le pipeline respectent les contraintes de schéma, de type et de plage de valeurs attendues par le modèle.
Test de Stabilité du Pipeline
Validation automatisée de l'ensemble des étapes d'un pipeline ML (prétraitement, entraînement, inférence) pour s'assurer qu'il s'exécute de manière déterministe et sans erreurs.
Test de Sécurité Adversarial
Évaluation automatisée de la vulnérabilité d'un modèle à des attaques par exemples contradictoires (adversarial examples), conçus pour induire des prédictions erronées.
Test de Monotonie
Vérification automatisée pour les modèles où une relation monotone entre une feature et la prédiction est attendue, s'assurant que l'augmentation de la feature entraîne bien une prédiction croissante (ou décroissante).
Validation de la Qualité des Données (Data Quality Validation)
Suite de tests automatisés vérifiant l'exhaustivité, l'unicité, la validité et la cohérence des données brutes avant leur ingestion dans le pipeline d'entraînement ou d'inférence.
Test de Dégradation des Métriques
Surveillance continue qui déclenche une alerte si les métriques de performance du modèle (ex: F1-score, AUC) chutent en dessous d'un seuil prédéfini sur les données de production.
Test d'Intégration de Modèle
Validation automatisée de l'interaction correcte entre le modèle entraîné et les autres composants du système, comme les API, les bases de données et les services de monitoring.
Shadow Testing
Technique où un nouveau modèle est déployé en parallèle du modèle de production, recevant le même trafic réel mais sans impacter les utilisateurs, pour comparer leurs performances avant le basculement.
Test de Réplication Expérimentale
Automate qui vérifie la reproductibilité des résultats d'un entraînement en exécutant le même pipeline avec des graines aléatoires fixes, s'assurant que les variations sont minimes et contrôlées.
Canary Testing pour Modèles ML
Stratégie de déploiement où une nouvelle version de modèle est exposée à un faible pourcentage du trafic utilisateur en production, permettant une validation en conditions réelles avant un déploiement complet.
Test de Dépendances de Pipeline
Validation automatisée que toutes les bibliothèques, versions de logiciels et ressources externes requises par le pipeline ML sont présentes et compatibles dans l'environnement d'exécution cible.