🏠 Ana Sayfa
Benchmarklar
📊 Tüm Benchmarklar 🦖 Dinozor v1 🦖 Dinozor v2 ✅ To-Do List Uygulamaları 🎨 Yaratıcı Serbest Sayfalar 🎯 FSACB - Nihai Gösteri 🌍 Çeviri Benchmarkı
Modeller
🏆 En İyi 10 Model 🆓 Ücretsiz Modeller 📋 Tüm Modeller ⚙️ Kilo Code
Kaynaklar
💬 Prompt Kütüphanesi 📖 YZ Sözlüğü 🔗 Faydalı Bağlantılar

YZ Sözlüğü

Yapay Zekanın tam sözlüğü

162
kategoriler
2.032
alt kategoriler
23.060
terimler
📖
terimler

Classifieur faible

Modèle de classification dont la performance est légèrement supérieure au hasard, utilisé comme brique de base dans les algorithmes de boosting.

📖
terimler

Poids d'entraînement

Valeurs numériques assignées à chaque exemple d'entraînement pour indiquer leur importance relative dans l'itération suivante de l'algorithme.

📖
terimler

Taux d'erreur pondéré

Mesure de performance d'un classifieur faible calculée comme la somme des poids des exemples mal classifiés divisée par la somme totale des poids.

📖
terimler

Coefficient du classifieur

Poids alpha calculé pour chaque classifieur faible dans AdaBoost, déterminant son influence dans le vote final basé sur sa performance.

📖
terimler

Decision Stump

Arbre de décision simplifié avec un seul nœud et deux feuilles, souvent utilisé comme classifieur faible dans AdaBoost.

📖
terimler

SAMME

Extension multiclasse d'AdaBoost (Stagewise Additive Modeling using a Multiclass Exponential loss) adaptant l'algorithme original aux problèmes avec plus de deux classes.

📖
terimler

Vote majoritaire pondéré

Méthode d'agrégation où chaque classifieur vote proportionnellement à son coefficient de confiance calculé par l'algorithme AdaBoost.

📖
terimler

Entraînement itératif

Processus séquentiel où chaque nouveau classifieur est entraîné sur les données repondérées en fonction des performances des classifieurs précédents.

📖
terimler

Hypothèse d'apprentissage faible

Principe fondamental du boosting stipulant qu'il est possible de combiner des classifieurs légèrement meilleurs que le hasard pour obtenir un classifieur fort.

📖
terimler

Taux d'apprentissage AdaBoost

Paramètre shrinkage qui contrôle la contribution de chaque classifieur faible au modèle final, permettant de régulariser l'algorithme.

📖
terimler

Pondération des instances

Mécanisme central d'AdaBoost modifiant la distribution de probabilité sur les exemples d'entraînement pour focaliser sur les cas difficiles.

📖
terimler

Stagewise Additive Modeling

Approche de construction de modèle où les classifieurs sont ajoutés séquentiellement sans retoucher les paramètres des classifieurs précédents.

📖
terimler

Robustesse aux outliers

Sensibilité d'AdaBoost aux valeurs aberrantes due à la pondération exponentielle croissante des exemples constamment mal classifiés.

📖
terimler

Convergence AdaBoost

Propriété théorique garantissant que l'erreur d'entraînement d'AdaBoost diminue exponentiellement avec le nombre d'itérations sous certaines conditions.

📖
terimler

Frontière de décision additive

Surface de séparation finale résultant de la combinaison linéaire pondérée des frontières de décision des classifieurs faibles.

🔍

Sonuç bulunamadı