🏠 Início
Avaliações
📊 Todos os Benchmarks 🦖 Dinossauro v1 🦖 Dinossauro v2 ✅ Aplicações To-Do List 🎨 Páginas Livres Criativas 🎯 FSACB - Showcase Definitivo 🌍 Benchmark de Tradução
Modelos
🏆 Top 10 Modelos 🆓 Modelos Gratuitos 📋 Todos os Modelos ⚙️ Kilo Code
Recursos
💬 Biblioteca de Prompts 📖 Glossário de IA 🔗 Links Úteis

Glossário IA

O dicionário completo da Inteligência Artificial

242
categorias
3.306
subcategorias
39.932
termos
📖
termos

Parallel Ensemble Learning

Paradigme d'apprentissage où les modèles de base sont construits simultanément et indépendamment les uns des autres, permettant une parallélisation efficace sur architectures distribuées. Contraste avec les méthodes séquentielles comme boosting où les modèles dépendent des précédents.

📖
termos

Decision Tree Ensemble

Collection d'arbres de décision construits en parallèle pour former un modèle prédictif plus robuste et généralisable qu'un arbre unique. Chaque arbre capture différentes patterns des données, et leur combinaison réduit le risque de surapprentissage.

📖
termos

Model Averaging

Technique d'agrégation combinant les prédictions continues de multiples modèles par calcul de leur moyenne arithmétique. Pour la classification, équivaut à la moyenne des probabilités de classe (soft voting) avant décision finale.

📖
termos

Independent Base Learners

Modèles fondamentaux dans les ensembles parallèles construits sans interaction ni dépendance entre eux pendant l'entraînement. Cette indépendance permet une parallélisation efficace et réduit le risque de propagation d'erreurs entre modèles.

📖
termos

Feature Subspace

Sous-ensemble aléatoire de caractéristiques sélectionnées à chaque noeud de division dans Random Forest, typiquement √p pour classification et p/3 pour régression. Introduit une diversité supplémentaire entre les arbres pour améliorer la performance de l'ensemble.

📖
termos

Pasting

Variante de bagging utilisant des échantillons sans remplacement plutôt qu'avec remplacement, garantissant que chaque observation apparaît au plus une fois par échantillon. Utile lorsque la taille du jeu de données est suffisamment grande pour éviter la redondance.

📖
termos

Random Subspaces

Méthode d'ensemble construisant chaque modèle de base sur un sous-ensemble aléatoire de caractéristiques plutôt que d'observations, appliquant l'approche de bagging dans l'espace des features. Particulièrement efficace pour les données haute dimensionnalité avec features redondantes.

🔍

Nenhum resultado encontrado