🏠 Strona Główna
Benchmarki
📊 Wszystkie benchmarki 🦖 Dinozaur v1 🦖 Dinozaur v2 ✅ Aplikacje To-Do List 🎨 Kreatywne wolne strony 🎯 FSACB - Ostateczny pokaz 🌍 Benchmark tłumaczeń
Modele
🏆 Top 10 modeli 🆓 Darmowe modele 📋 Wszystkie modele ⚙️ Kilo Code
Zasoby
💬 Biblioteka promptów 📖 Słownik AI 🔗 Przydatne linki

Słownik AI

Kompletny słownik sztucznej inteligencji

162
kategorie
2 032
podkategorie
23 060
pojęcia
📖
pojęcia

Weighted SVM

Variante de SVM qui attribue des pénalités différentes aux erreurs de classification selon les classes, permettant de compenser le déséquilibre en pénalisant davantage les erreurs sur la classe minoritaire.

📖
pojęcia

Cost-Sensitive SVM

Approche SVM qui intègre directement les coûts de mauvaise classification dans la fonction objectif, optimisant non seulement la marge mais aussi le coût total des erreurs selon leur importance métier.

📖
pojęcia

Class Weighting

Technique d'ajustement des poids des classes dans l'algorithme SVM où chaque classe reçoit un poids inversement proportionnel à sa fréquence dans le jeu de données.

📖
pojęcia

SMOTE-SVM

Combination de Synthetic Minority Over-sampling Technique avec SVM, générant synthétiquement des exemples de la classe minoritaire avant l'entraînement du modèle pour équilibrer la distribution.

📖
pojęcia

ADASYN

Adaptive Synthetic Sampling approach qui génère des exemples synthétiques selon la densité locale, privilégiant les échantillons minoritaires difficiles à apprendre pour améliorer la frontière de décision SVM.

📖
pojęcia

Borderline-SVM

Variante SVM utilisant Borderline-SMOTE qui suréchantillonne sélectivement les exemples minoritaires proches de la frontière de décision, améliorant la précision dans les zones critiques.

📖
pojęcia

Focal Loss SVM

Modification de la fonction de perte SVM intégrant Focal Loss pour concentrer l'apprentissage sur les exemples difficiles et mal classés, particulièrement efficace pour les classes minoritaires.

📖
pojęcia

Balanced Bagging SVM

Technique d'ensemble créant multiple sous-ensembles équilibrés par undersampling de la classe majoritaire, entraînant un SVM sur chacun et agrégeant les prédictions par vote majoritaire.

📖
pojęcia

EasyEnsemble SVM

Méthode de bagging équilibré divisant la classe majoritaire en plusieurs sous-ensembles et combinant avec la classe minoritaire pour entraîner multiples SVM indépendants.

📖
pojęcia

Threshold Moving

Technique post-entraînement ajustant le seuil de décision SVM pour optimiser les métriques spécifiques aux données déséquilibrées comme F1-score ou MCC au lieu de l'accuracy.

📖
pojęcia

Imbalance Ratio

Métrique quantitative du déséquilibre entre classes, calculée comme le ratio entre le nombre d'instances de la classe majoritaire et minoritaire, guidant le choix des techniques de correction.

📖
pojęcia

Kernel Density Weighting

Approche avancée utilisant l'estimation de densité par noyau pour assigner des poids dynamiques aux échantillons SVM selon leur rareté et leur importance dans l'espace de caractéristiques.

📖
pojęcia

Meta-learning SVM

Framework appliquant SVM au niveau méta pour apprendre à sélectionner ou combiner automatiquement les meilleures techniques de gestion du déséquilibre selon les caractéristiques du jeu de données.

📖
pojęcia

Cost-Sensitive Kernel SVM

Extension des méthodes à noyau intégrant des matrices de coût asymétriques dans la formulation duale, permettant une gestion sophistiquée du déséquilibre dans les espaces de grande dimension.

📖
pojęcia

Cluster-based Undersampling SVM

Technique de undersampling intelligent regroupant la classe majoritaire en clusters et sélectionnant représentativement des échantillons de chaque cluster pour préserver la diversité avant l'entraînement SVM.

📖
pojęcia

Hybrid Sampling SVM

Combination stratégique de sur-échantillonnage de la classe minoritaire et sous-échantillonnage de la classe majoritaire, optimisant l'équilibre global pour l'entraînement SVM.

📖
pojęcia

Differential Evolution SVM

Approche d'optimisation évolutive ajustant automatiquement les hyperparamètres SVM et les poids de classe simultanément pour maximiser les performances sur données déséquilibrées.

🔍

Nie znaleziono wyników