Glossaire IA
Le dictionnaire complet de l'Intelligence Artificielle
One-vs-Rest (OvR)
Stratégie de décomposition de la classification multi-classe en plusieurs classificateurs binaires, où chaque classificateur distingue une classe contre toutes les autres.
One-vs-One (OvO)
Approche qui entraîne un classificateur binaire pour chaque paire de classes possibles, nécessitant n(n-1)/2 classificateurs pour n classes.
Matrice de confusion multi-classe
Tableau NxN où N est le nombre de classes, affichant les prédictions correctes et incorrectes du modèle pour évaluer sa performance de classification.
Score F1 macro
Moyenne non pondérée des scores F1 de chaque classe, traitant toutes les classes de manière égale quelle que soit leur fréquence dans le jeu de données.
Score F1 micro
Métrique qui calcule le score F1 globalement en comptant le total des vrais positifs, faux négatifs et faux positifs à travers toutes les classes.
Score F1 weighted
Moyenne pondérée des scores F1 par classe, où chaque classe contribue proportionnellement à son nombre d'échantillons dans le jeu de données.
Logits
Scores bruts non normalisés produits par la dernière couche d'un réseau de neurones avant l'application de la fonction softmax pour la classification multi-classe.
Cross-entropy multi-classe
Fonction de perte qui mesure la divergence entre la distribution de probabilité prédite et la distribution réelle des étiquettes dans un contexte multi-classe.
Échantillonnage stratifié
Technique d'échantillonnage préservant la proportion des classes dans les sous-ensembles d'entraînement et de test pour éviter le biais de distribution.
Déséquilibre des classes
Situation où les classes ne sont pas représentées de manière égale dans le jeu de données, pouvant biaiser l'apprentissage vers les classes majoritaires.
Undersampling aléatoire
Méthode de sous-échantillonnage qui réduit aléatoirement le nombre d'échantillons des classes majoritaires pour équilibrer la distribution des classes.
Oversampling aléatoire
Approche de suréchantillonnage dupliquant aléatoirement les échantillons des classes minoritaires pour atteindre l'équilibre avec les classes majoritaires.
Précision multi-classe
Métrique calculée comme la moyenne des précisions par classe, où la précision d'une classe est le ratio de vrais positifs sur le total de prédictions positives.
Rappel multi-classe
Métrique représentant la moyenne des rappels par classe, mesurant la capacité du modèle à identifier tous les échantillons pertinents pour chaque classe.
Courbe ROC multi-classe
Extension de la courbe ROC pour la classification multi-classe, généralement calculée en utilisant une approche One-vs-Rest ou macro-moyenne.
AUC multi-classe
Aire sous la courbe ROC pour les problèmes multi-classe, calculée comme moyenne des AUC binaires selon l'approche One-vs-Rest.
Arbres de décision multi-classe
Algorithmes basés sur des règles qui partitionnent récursivement l'espace des caractéristiques pour créer des feuilles correspondant aux différentes classes.
Régression logistique multi-classe
Extension de la régression logistique utilisant la fonction softmax pour modéliser la probabilité d'appartenance à chacune des K classes possibles.
SVM multi-classe
Machines à vecteurs de support adaptées pour la classification multi-classe, typiquement implémentées via les stratégies One-vs-Rest ou One-vs-One.
KNN multi-classe
Algorithme des k plus proches voisins qui classe une nouvelle observation selon la classe majoritaire parmi ses k voisins les plus proches.
Naïve Bayes multi-classe
Classificateur probabiliste basé sur le théorème de Bayes avec hypothèse d'indépendance conditionnelle, étendu naturellement aux problèmes multi-classe.
Random Forest multi-classe
Méthode d'ensemble combinant multiples arbres de décision entraînés sur sous-échantillons bootstrap, avec classification par vote majoritaire.