🏠 Hem
Benchmarkar
📊 Alla benchmarkar 🦖 Dinosaur v1 🦖 Dinosaur v2 ✅ To-Do List-applikationer 🎨 Kreativa fria sidor 🎯 FSACB - Ultimata uppvisningen 🌍 Översättningsbenchmark
Modeller
🏆 Topp 10 modeller 🆓 Gratis modeller 📋 Alla modeller ⚙️ Kilo Code
Resurser
💬 Promptbibliotek 📖 AI-ordlista 🔗 Användbara länkar

AI-ordlista

Den kompletta ordlistan över AI

162
kategorier
2 032
underkategorier
23 060
termer
📖
termer

Diversity Measure

Métrique quantitative évaluant le degré de dissimilarité entre les prédictions des modèles de base dans un ensemble, essentielle pour prévenir la corrélation des erreurs.

📖
termer

Q-Statistic

Coefficient statistique mesurant la dépendance entre deux classifieurs binaires, variant de -1 (diversité maximale) à 1 (corrélation parfaite) avec 0 indiquant l'indépendance.

📖
termer

Correlation Coefficient

Métrique statistique évaluant la relation linéaire entre les prédictions de deux classifieurs, où des valeurs proches de 0 indiquent une forte diversité bénéfique.

📖
termer

Disagreement Measure

Proportion d'instances où deux classifieurs produisent des prédictions différentes, calculée comme le ratio de désaccords sur le nombre total d'observations.

📖
termer

Kappa Statistic

Mesure de concordance ajustée pour le hasard entre classifieurs, où des valeurs négatives indiquent une diversité supérieure à celle attendue par hasard.

📖
termer

Entropy Measure

Métrique basée sur l'entropie de Shannon évaluant la diversité à travers la distribution des prédictions de l'ensemble, avec des valeurs élevées indiquant une diversité maximale.

📖
termer

Kohavi-Wolpert Variance

Mesure de diversité basée sur la variance des prédictions binaires de l'ensemble, liée directement au taux d'erreur de Bayes optimal et à la décomposition biais-variance.

📖
termer

Double Fault Measure

Proportion d'instances où deux classifieurs commettent simultanément la même erreur, avec des valeurs faibles indiquant une complémentarité bénéfique des modèles.

📖
termer

Difficulty Measure

Métrique évaluant la facilité avec laquelle les instances sont classées correctement par l'ensemble, utilisée pour identifier les échantillons problématiques nécessitant plus de diversité.

📖
termer

Margin-Based Diversity

Approche mesurant la diversité à travers la distribution des marges de classification, où une large dispersion des marges indique une robustesse accrue de l'ensemble.

📖
termer

Ambiguity Decomposition

Décomposition mathématique séparant l'erreur de l'ensemble en erreur moyenne des modèles de base plus un terme d'ambiguïté quantifiant leur diversité.

📖
termer

Error Correlation

Coefficient de corrélation calculé sur les vecteurs d'erreurs des modèles de base, où des valeurs négatives sont particulièrement bénéfiques pour la performance de l'ensemble.

📖
termer

Negative Correlation Learning

Technique d'apprentissage intégrant un terme de pénalité encourageant explicitement la corrélation négative entre les erreurs des modèles de base pendant l'entraînement.

📖
termer

Diversity-Promoting Regularization

Terme de régularisation ajouté à la fonction de perte pour encourager activement la diversité entre les prédictions des modèles pendant l'entraînement de l'ensemble.

📖
termer

Orthogonal Ensemble Learning

Méthode contrainte les modèles de base à apprendre des représentations orthogonales dans l'espace des caractéristiques, garantissant mathématiquement leur diversité.

📖
termer

Heterogeneous Ensemble Diversity

Étude de la diversité émergeant naturellement de la combinaison d'algorithmes de types différents (arbres, réseaux neuronaux, SVM) exploitant leurs biais complémentaires.

🔍

Inga resultat hittades