🏠 홈
벤치마크
📊 모든 벤치마크 🦖 공룡 v1 🦖 공룡 v2 ✅ 할 일 목록 앱 🎨 창의적인 자유 페이지 🎯 FSACB - 궁극의 쇼케이스 🌍 번역 벤치마크
모델
🏆 톱 10 모델 🆓 무료 모델 📋 모든 모델 ⚙️ 킬로 코드 모드
리소스
💬 프롬프트 라이브러리 📖 AI 용어 사전 🔗 유용한 링크

AI 용어집

인공지능 완전 사전

162
카테고리
2,032
하위 카테고리
23,060
용어
📖
용어

Classifieur faible

Modèle de classification dont la performance est légèrement supérieure au hasard, utilisé comme brique de base dans les algorithmes de boosting.

📖
용어

Poids d'entraînement

Valeurs numériques assignées à chaque exemple d'entraînement pour indiquer leur importance relative dans l'itération suivante de l'algorithme.

📖
용어

Taux d'erreur pondéré

Mesure de performance d'un classifieur faible calculée comme la somme des poids des exemples mal classifiés divisée par la somme totale des poids.

📖
용어

Coefficient du classifieur

Poids alpha calculé pour chaque classifieur faible dans AdaBoost, déterminant son influence dans le vote final basé sur sa performance.

📖
용어

Decision Stump

Arbre de décision simplifié avec un seul nœud et deux feuilles, souvent utilisé comme classifieur faible dans AdaBoost.

📖
용어

SAMME

Extension multiclasse d'AdaBoost (Stagewise Additive Modeling using a Multiclass Exponential loss) adaptant l'algorithme original aux problèmes avec plus de deux classes.

📖
용어

Vote majoritaire pondéré

Méthode d'agrégation où chaque classifieur vote proportionnellement à son coefficient de confiance calculé par l'algorithme AdaBoost.

📖
용어

Entraînement itératif

Processus séquentiel où chaque nouveau classifieur est entraîné sur les données repondérées en fonction des performances des classifieurs précédents.

📖
용어

Hypothèse d'apprentissage faible

Principe fondamental du boosting stipulant qu'il est possible de combiner des classifieurs légèrement meilleurs que le hasard pour obtenir un classifieur fort.

📖
용어

Taux d'apprentissage AdaBoost

Paramètre shrinkage qui contrôle la contribution de chaque classifieur faible au modèle final, permettant de régulariser l'algorithme.

📖
용어

Pondération des instances

Mécanisme central d'AdaBoost modifiant la distribution de probabilité sur les exemples d'entraînement pour focaliser sur les cas difficiles.

📖
용어

Stagewise Additive Modeling

Approche de construction de modèle où les classifieurs sont ajoutés séquentiellement sans retoucher les paramètres des classifieurs précédents.

📖
용어

Robustesse aux outliers

Sensibilité d'AdaBoost aux valeurs aberrantes due à la pondération exponentielle croissante des exemples constamment mal classifiés.

📖
용어

Convergence AdaBoost

Propriété théorique garantissant que l'erreur d'entraînement d'AdaBoost diminue exponentiellement avec le nombre d'itérations sous certaines conditions.

📖
용어

Frontière de décision additive

Surface de séparation finale résultant de la combinaison linéaire pondérée des frontières de décision des classifieurs faibles.

🔍

결과를 찾을 수 없습니다