🏠 Hem
Benchmarkar
📊 Alla benchmarkar 🦖 Dinosaur v1 🦖 Dinosaur v2 ✅ To-Do List-applikationer 🎨 Kreativa fria sidor 🎯 FSACB - Ultimata uppvisningen 🌍 Översättningsbenchmark
Modeller
🏆 Topp 10 modeller 🆓 Gratis modeller 📋 Alla modeller ⚙️ Kilo Code
Resurser
💬 Promptbibliotek 📖 AI-ordlista 🔗 Användbara länkar

AI-ordlista

Den kompletta ordlistan över AI

162
kategorier
2 032
underkategorier
23 060
termer
📖
termer

Classifieur faible

Modèle de classification dont la performance est légèrement supérieure au hasard, utilisé comme brique de base dans les algorithmes de boosting.

📖
termer

Poids d'entraînement

Valeurs numériques assignées à chaque exemple d'entraînement pour indiquer leur importance relative dans l'itération suivante de l'algorithme.

📖
termer

Taux d'erreur pondéré

Mesure de performance d'un classifieur faible calculée comme la somme des poids des exemples mal classifiés divisée par la somme totale des poids.

📖
termer

Coefficient du classifieur

Poids alpha calculé pour chaque classifieur faible dans AdaBoost, déterminant son influence dans le vote final basé sur sa performance.

📖
termer

Decision Stump

Arbre de décision simplifié avec un seul nœud et deux feuilles, souvent utilisé comme classifieur faible dans AdaBoost.

📖
termer

SAMME

Extension multiclasse d'AdaBoost (Stagewise Additive Modeling using a Multiclass Exponential loss) adaptant l'algorithme original aux problèmes avec plus de deux classes.

📖
termer

Vote majoritaire pondéré

Méthode d'agrégation où chaque classifieur vote proportionnellement à son coefficient de confiance calculé par l'algorithme AdaBoost.

📖
termer

Entraînement itératif

Processus séquentiel où chaque nouveau classifieur est entraîné sur les données repondérées en fonction des performances des classifieurs précédents.

📖
termer

Hypothèse d'apprentissage faible

Principe fondamental du boosting stipulant qu'il est possible de combiner des classifieurs légèrement meilleurs que le hasard pour obtenir un classifieur fort.

📖
termer

Taux d'apprentissage AdaBoost

Paramètre shrinkage qui contrôle la contribution de chaque classifieur faible au modèle final, permettant de régulariser l'algorithme.

📖
termer

Pondération des instances

Mécanisme central d'AdaBoost modifiant la distribution de probabilité sur les exemples d'entraînement pour focaliser sur les cas difficiles.

📖
termer

Stagewise Additive Modeling

Approche de construction de modèle où les classifieurs sont ajoutés séquentiellement sans retoucher les paramètres des classifieurs précédents.

📖
termer

Robustesse aux outliers

Sensibilité d'AdaBoost aux valeurs aberrantes due à la pondération exponentielle croissante des exemples constamment mal classifiés.

📖
termer

Convergence AdaBoost

Propriété théorique garantissant que l'erreur d'entraînement d'AdaBoost diminue exponentiellement avec le nombre d'itérations sous certaines conditions.

📖
termer

Frontière de décision additive

Surface de séparation finale résultant de la combinaison linéaire pondérée des frontières de décision des classifieurs faibles.

🔍

Inga resultat hittades