🏠 Home
Benchmark
📊 Tutti i benchmark 🦖 Dinosauro v1 🦖 Dinosauro v2 ✅ App To-Do List 🎨 Pagine libere creative 🎯 FSACB - Ultimate Showcase 🌍 Benchmark traduzione
Modelli
🏆 Top 10 modelli 🆓 Modelli gratuiti 📋 Tutti i modelli ⚙️ Kilo Code
Risorse
💬 Libreria di prompt 📖 Glossario IA 🔗 Link utili

Glossario IA

Il dizionario completo dell'Intelligenza Artificiale

162
categorie
2.032
sottocategorie
23.060
termini
📖
termini

Parallel Ensemble Learning

Paradigme d'apprentissage où les modèles de base sont construits simultanément et indépendamment les uns des autres, permettant une parallélisation efficace sur architectures distribuées. Contraste avec les méthodes séquentielles comme boosting où les modèles dépendent des précédents.

📖
termini

Decision Tree Ensemble

Collection d'arbres de décision construits en parallèle pour former un modèle prédictif plus robuste et généralisable qu'un arbre unique. Chaque arbre capture différentes patterns des données, et leur combinaison réduit le risque de surapprentissage.

📖
termini

Model Averaging

Technique d'agrégation combinant les prédictions continues de multiples modèles par calcul de leur moyenne arithmétique. Pour la classification, équivaut à la moyenne des probabilités de classe (soft voting) avant décision finale.

📖
termini

Independent Base Learners

Modèles fondamentaux dans les ensembles parallèles construits sans interaction ni dépendance entre eux pendant l'entraînement. Cette indépendance permet une parallélisation efficace et réduit le risque de propagation d'erreurs entre modèles.

📖
termini

Feature Subspace

Sous-ensemble aléatoire de caractéristiques sélectionnées à chaque noeud de division dans Random Forest, typiquement √p pour classification et p/3 pour régression. Introduit une diversité supplémentaire entre les arbres pour améliorer la performance de l'ensemble.

📖
termini

Pasting

Variante de bagging utilisant des échantillons sans remplacement plutôt qu'avec remplacement, garantissant que chaque observation apparaît au plus une fois par échantillon. Utile lorsque la taille du jeu de données est suffisamment grande pour éviter la redondance.

📖
termini

Random Subspaces

Méthode d'ensemble construisant chaque modèle de base sur un sous-ensemble aléatoire de caractéristiques plutôt que d'observations, appliquant l'approche de bagging dans l'espace des features. Particulièrement efficace pour les données haute dimensionnalité avec features redondantes.

🔍

Nessun risultato trovato