🏠 Startseite
Vergleiche
📊 Alle Benchmarks 🦖 Dinosaurier v1 🦖 Dinosaurier v2 ✅ To-Do-Listen-Apps 🎨 Kreative freie Seiten 🎯 FSACB - Ultimatives Showcase 🌍 Übersetzungs-Benchmark
Modelle
🏆 Top 10 Modelle 🆓 Kostenlose Modelle 📋 Alle Modelle ⚙️ Kilo Code
Ressourcen
💬 Prompt-Bibliothek 📖 KI-Glossar 🔗 Nützliche Links

KI-Glossar

Das vollständige Wörterbuch der Künstlichen Intelligenz

162
Kategorien
2.032
Unterkategorien
23.060
Begriffe
📖
Begriffe

Weighted SVM

Variante de SVM qui attribue des pénalités différentes aux erreurs de classification selon les classes, permettant de compenser le déséquilibre en pénalisant davantage les erreurs sur la classe minoritaire.

📖
Begriffe

Cost-Sensitive SVM

Approche SVM qui intègre directement les coûts de mauvaise classification dans la fonction objectif, optimisant non seulement la marge mais aussi le coût total des erreurs selon leur importance métier.

📖
Begriffe

Class Weighting

Technique d'ajustement des poids des classes dans l'algorithme SVM où chaque classe reçoit un poids inversement proportionnel à sa fréquence dans le jeu de données.

📖
Begriffe

SMOTE-SVM

Combination de Synthetic Minority Over-sampling Technique avec SVM, générant synthétiquement des exemples de la classe minoritaire avant l'entraînement du modèle pour équilibrer la distribution.

📖
Begriffe

ADASYN

Adaptive Synthetic Sampling approach qui génère des exemples synthétiques selon la densité locale, privilégiant les échantillons minoritaires difficiles à apprendre pour améliorer la frontière de décision SVM.

📖
Begriffe

Borderline-SVM

Variante SVM utilisant Borderline-SMOTE qui suréchantillonne sélectivement les exemples minoritaires proches de la frontière de décision, améliorant la précision dans les zones critiques.

📖
Begriffe

Focal Loss SVM

Modification de la fonction de perte SVM intégrant Focal Loss pour concentrer l'apprentissage sur les exemples difficiles et mal classés, particulièrement efficace pour les classes minoritaires.

📖
Begriffe

Balanced Bagging SVM

Technique d'ensemble créant multiple sous-ensembles équilibrés par undersampling de la classe majoritaire, entraînant un SVM sur chacun et agrégeant les prédictions par vote majoritaire.

📖
Begriffe

EasyEnsemble SVM

Méthode de bagging équilibré divisant la classe majoritaire en plusieurs sous-ensembles et combinant avec la classe minoritaire pour entraîner multiples SVM indépendants.

📖
Begriffe

Threshold Moving

Technique post-entraînement ajustant le seuil de décision SVM pour optimiser les métriques spécifiques aux données déséquilibrées comme F1-score ou MCC au lieu de l'accuracy.

📖
Begriffe

Imbalance Ratio

Métrique quantitative du déséquilibre entre classes, calculée comme le ratio entre le nombre d'instances de la classe majoritaire et minoritaire, guidant le choix des techniques de correction.

📖
Begriffe

Kernel Density Weighting

Approche avancée utilisant l'estimation de densité par noyau pour assigner des poids dynamiques aux échantillons SVM selon leur rareté et leur importance dans l'espace de caractéristiques.

📖
Begriffe

Meta-learning SVM

Framework appliquant SVM au niveau méta pour apprendre à sélectionner ou combiner automatiquement les meilleures techniques de gestion du déséquilibre selon les caractéristiques du jeu de données.

📖
Begriffe

Cost-Sensitive Kernel SVM

Extension des méthodes à noyau intégrant des matrices de coût asymétriques dans la formulation duale, permettant une gestion sophistiquée du déséquilibre dans les espaces de grande dimension.

📖
Begriffe

Cluster-based Undersampling SVM

Technique de undersampling intelligent regroupant la classe majoritaire en clusters et sélectionnant représentativement des échantillons de chaque cluster pour préserver la diversité avant l'entraînement SVM.

📖
Begriffe

Hybrid Sampling SVM

Combination stratégique de sur-échantillonnage de la classe minoritaire et sous-échantillonnage de la classe majoritaire, optimisant l'équilibre global pour l'entraînement SVM.

📖
Begriffe

Differential Evolution SVM

Approche d'optimisation évolutive ajustant automatiquement les hyperparamètres SVM et les poids de classe simultanément pour maximiser les performances sur données déséquilibrées.

🔍

Keine Ergebnisse gefunden