🏠 Accueil
Benchmarks
📊 Tous les Benchmarks 🦖 Dinosaure v1 🦖 Dinosaure v2 ✅ To-Do List Apps 🎨 Pages Libres 🎯 FSACB - Showcase 🌍 Traduction
Modèles
🏆 Top 10 Modèles 🆓 Modèles Gratuits 📋 Tous les Modèles ⚙️ Modes Kilo Code
Ressources
💬 Prompts IA 📖 Glossaire IA 🔗 Liens Utiles

Glossaire IA

Le dictionnaire complet de l'Intelligence Artificielle

242
catégories
3 353
sous-catégories
40 780
termes
📖
termes

Pasting Ensemble

Méthode d'ensemble qui construit plusieurs modèles sur des sous-ensembles aléatoires des données d'entraînement, sans remplacement, pour réduire la variance et améliorer la généralisation.

📖
termes

Échantillonnage sans Remplacement

Technique de sélection d'observations où chaque élément choisi est retiré de la population, garantissant des sous-ensembles uniques comme dans le pasting.

📖
termes

Échantillonnage avec Remplacement

Méthode où les observations peuvent être sélectionnées plusieurs fois dans le même échantillon, caractéristique fondamentale du bagging.

📖
termes

Sous-ensemble d'Entraînement

Portion des données d'entraînement utilisée pour construire un modèle individuel dans une méthode d'ensemble, avec ou sans remplacement selon la technique.

📖
termes

Agrégation de Prédictions

Processus de combinaison des prédictions individuelles des modèles d'ensemble, typiquement par vote majoritaire (classification) ou moyenne (régression).

📖
termes

Diversité des Modèles

Principe selon lequel les modèles d'ensemble doivent être différents pour que l'agrégation soit efficace, obtenu par des sous-ensembles de données variés.

📖
termes

Random Subspace Sampling

Extension du bagging où les modèles sont entraînés sur des sous-ensembles aléatoires de caractéristiques en plus des sous-ensembles d'observations.

📖
termes

Pasting Small Samples

Variante du pasting utilisant des sous-ensembles de taille réduite pour accélérer l'entraînement tout en maintenant la diversité des modèles.

📖
termes

Variance du Modèle

Sensibilité du modèle aux variations des données d'entraînement, que les méthodes d'ensemble comme le bagging cherchent spécifiquement à réduire.

📖
termes

Stabilité des Prédictions

Capacité d'un modèle à produire des prédictions cohérentes face à de légères variations des données d'entraînement, améliorée par les méthodes d'ensemble.

📖
termes

Parallel Ensemble Training

Avantage du bagging et du pasting permettant l'entraînement simultané des modèles de base sur différents sous-ensembles de données.

📖
termes

Sample Complexity

Nombre d'échantillons nécessaires pour atteindre une certaine performance, potentiellement réduit par les méthodes d'ensemble efficaces.

🔍

Aucun résultat trouvé