🏠 Accueil
Benchmarks
📊 Tous les Benchmarks 🦖 Dinosaure v1 🦖 Dinosaure v2 ✅ To-Do List Apps 🎨 Pages Libres 🎯 FSACB - Showcase 🌍 Traduction
Modèles
🏆 Top 10 Modèles 🆓 Modèles Gratuits 📋 Tous les Modèles ⚙️ Modes Kilo Code
Ressources
💬 Prompts IA 📖 Glossaire IA 🔗 Liens Utiles

Glossaire IA

Le dictionnaire complet de l'Intelligence Artificielle

242
catégories
3 353
sous-catégories
40 780
termes
📖
termes

Diversity Measure

Métrique quantitative évaluant le degré de dissimilarité entre les prédictions des modèles de base dans un ensemble, essentielle pour prévenir la corrélation des erreurs.

📖
termes

Q-Statistic

Coefficient statistique mesurant la dépendance entre deux classifieurs binaires, variant de -1 (diversité maximale) à 1 (corrélation parfaite) avec 0 indiquant l'indépendance.

📖
termes

Correlation Coefficient

Métrique statistique évaluant la relation linéaire entre les prédictions de deux classifieurs, où des valeurs proches de 0 indiquent une forte diversité bénéfique.

📖
termes

Disagreement Measure

Proportion d'instances où deux classifieurs produisent des prédictions différentes, calculée comme le ratio de désaccords sur le nombre total d'observations.

📖
termes

Kappa Statistic

Mesure de concordance ajustée pour le hasard entre classifieurs, où des valeurs négatives indiquent une diversité supérieure à celle attendue par hasard.

📖
termes

Entropy Measure

Métrique basée sur l'entropie de Shannon évaluant la diversité à travers la distribution des prédictions de l'ensemble, avec des valeurs élevées indiquant une diversité maximale.

📖
termes

Kohavi-Wolpert Variance

Mesure de diversité basée sur la variance des prédictions binaires de l'ensemble, liée directement au taux d'erreur de Bayes optimal et à la décomposition biais-variance.

📖
termes

Double Fault Measure

Proportion d'instances où deux classifieurs commettent simultanément la même erreur, avec des valeurs faibles indiquant une complémentarité bénéfique des modèles.

📖
termes

Difficulty Measure

Métrique évaluant la facilité avec laquelle les instances sont classées correctement par l'ensemble, utilisée pour identifier les échantillons problématiques nécessitant plus de diversité.

📖
termes

Margin-Based Diversity

Approche mesurant la diversité à travers la distribution des marges de classification, où une large dispersion des marges indique une robustesse accrue de l'ensemble.

📖
termes

Ambiguity Decomposition

Décomposition mathématique séparant l'erreur de l'ensemble en erreur moyenne des modèles de base plus un terme d'ambiguïté quantifiant leur diversité.

📖
termes

Error Correlation

Coefficient de corrélation calculé sur les vecteurs d'erreurs des modèles de base, où des valeurs négatives sont particulièrement bénéfiques pour la performance de l'ensemble.

📖
termes

Negative Correlation Learning

Technique d'apprentissage intégrant un terme de pénalité encourageant explicitement la corrélation négative entre les erreurs des modèles de base pendant l'entraînement.

📖
termes

Diversity-Promoting Regularization

Terme de régularisation ajouté à la fonction de perte pour encourager activement la diversité entre les prédictions des modèles pendant l'entraînement de l'ensemble.

📖
termes

Orthogonal Ensemble Learning

Méthode contrainte les modèles de base à apprendre des représentations orthogonales dans l'espace des caractéristiques, garantissant mathématiquement leur diversité.

📖
termes

Heterogeneous Ensemble Diversity

Étude de la diversité émergeant naturellement de la combinaison d'algorithmes de types différents (arbres, réseaux neuronaux, SVM) exploitant leurs biais complémentaires.

🔍

Aucun résultat trouvé