Słownik AI
Kompletny słownik sztucznej inteligencji
Weighted SVM
Variante de SVM qui attribue des pénalités différentes aux erreurs de classification selon les classes, permettant de compenser le déséquilibre en pénalisant davantage les erreurs sur la classe minoritaire.
Cost-Sensitive SVM
Approche SVM qui intègre directement les coûts de mauvaise classification dans la fonction objectif, optimisant non seulement la marge mais aussi le coût total des erreurs selon leur importance métier.
Class Weighting
Technique d'ajustement des poids des classes dans l'algorithme SVM où chaque classe reçoit un poids inversement proportionnel à sa fréquence dans le jeu de données.
SMOTE-SVM
Combination de Synthetic Minority Over-sampling Technique avec SVM, générant synthétiquement des exemples de la classe minoritaire avant l'entraînement du modèle pour équilibrer la distribution.
ADASYN
Adaptive Synthetic Sampling approach qui génère des exemples synthétiques selon la densité locale, privilégiant les échantillons minoritaires difficiles à apprendre pour améliorer la frontière de décision SVM.
Borderline-SVM
Variante SVM utilisant Borderline-SMOTE qui suréchantillonne sélectivement les exemples minoritaires proches de la frontière de décision, améliorant la précision dans les zones critiques.
Focal Loss SVM
Modification de la fonction de perte SVM intégrant Focal Loss pour concentrer l'apprentissage sur les exemples difficiles et mal classés, particulièrement efficace pour les classes minoritaires.
Balanced Bagging SVM
Technique d'ensemble créant multiple sous-ensembles équilibrés par undersampling de la classe majoritaire, entraînant un SVM sur chacun et agrégeant les prédictions par vote majoritaire.
EasyEnsemble SVM
Méthode de bagging équilibré divisant la classe majoritaire en plusieurs sous-ensembles et combinant avec la classe minoritaire pour entraîner multiples SVM indépendants.
Threshold Moving
Technique post-entraînement ajustant le seuil de décision SVM pour optimiser les métriques spécifiques aux données déséquilibrées comme F1-score ou MCC au lieu de l'accuracy.
Imbalance Ratio
Métrique quantitative du déséquilibre entre classes, calculée comme le ratio entre le nombre d'instances de la classe majoritaire et minoritaire, guidant le choix des techniques de correction.
Kernel Density Weighting
Approche avancée utilisant l'estimation de densité par noyau pour assigner des poids dynamiques aux échantillons SVM selon leur rareté et leur importance dans l'espace de caractéristiques.
Meta-learning SVM
Framework appliquant SVM au niveau méta pour apprendre à sélectionner ou combiner automatiquement les meilleures techniques de gestion du déséquilibre selon les caractéristiques du jeu de données.
Cost-Sensitive Kernel SVM
Extension des méthodes à noyau intégrant des matrices de coût asymétriques dans la formulation duale, permettant une gestion sophistiquée du déséquilibre dans les espaces de grande dimension.
Cluster-based Undersampling SVM
Technique de undersampling intelligent regroupant la classe majoritaire en clusters et sélectionnant représentativement des échantillons de chaque cluster pour préserver la diversité avant l'entraînement SVM.
Hybrid Sampling SVM
Combination stratégique de sur-échantillonnage de la classe minoritaire et sous-échantillonnage de la classe majoritaire, optimisant l'équilibre global pour l'entraînement SVM.
Differential Evolution SVM
Approche d'optimisation évolutive ajustant automatiquement les hyperparamètres SVM et les poids de classe simultanément pour maximiser les performances sur données déséquilibrées.