🏠 Home
Benchmark Hub
📊 All Benchmarks 🦖 Dinosaur v1 🦖 Dinosaur v2 ✅ To-Do List Applications 🎨 Creative Free Pages 🎯 FSACB - Ultimate Showcase 🌍 Translation Benchmark
Models
🏆 Top 10 Models 🆓 Free Models 📋 All Models ⚙️ Kilo Code
Resources
💬 Prompts Library 📖 AI Glossary 🔗 Useful Links

AI Glossary

The complete dictionary of Artificial Intelligence

162
categories
2,032
subcategories
23,060
terms
📖
terms

Parallel Ensemble Learning

Paradigme d'apprentissage où les modèles de base sont construits simultanément et indépendamment les uns des autres, permettant une parallélisation efficace sur architectures distribuées. Contraste avec les méthodes séquentielles comme boosting où les modèles dépendent des précédents.

📖
terms

Decision Tree Ensemble

Collection d'arbres de décision construits en parallèle pour former un modèle prédictif plus robuste et généralisable qu'un arbre unique. Chaque arbre capture différentes patterns des données, et leur combinaison réduit le risque de surapprentissage.

📖
terms

Model Averaging

Technique d'agrégation combinant les prédictions continues de multiples modèles par calcul de leur moyenne arithmétique. Pour la classification, équivaut à la moyenne des probabilités de classe (soft voting) avant décision finale.

📖
terms

Independent Base Learners

Modèles fondamentaux dans les ensembles parallèles construits sans interaction ni dépendance entre eux pendant l'entraînement. Cette indépendance permet une parallélisation efficace et réduit le risque de propagation d'erreurs entre modèles.

📖
terms

Feature Subspace

Sous-ensemble aléatoire de caractéristiques sélectionnées à chaque noeud de division dans Random Forest, typiquement √p pour classification et p/3 pour régression. Introduit une diversité supplémentaire entre les arbres pour améliorer la performance de l'ensemble.

📖
terms

Pasting

Variante de bagging utilisant des échantillons sans remplacement plutôt qu'avec remplacement, garantissant que chaque observation apparaît au plus une fois par échantillon. Utile lorsque la taille du jeu de données est suffisamment grande pour éviter la redondance.

📖
terms

Random Subspaces

Méthode d'ensemble construisant chaque modèle de base sur un sous-ensemble aléatoire de caractéristiques plutôt que d'observations, appliquant l'approche de bagging dans l'espace des features. Particulièrement efficace pour les données haute dimensionnalité avec features redondantes.

🔍

No results found