🏠 Home
Benchmark
📊 Tutti i benchmark 🦖 Dinosauro v1 🦖 Dinosauro v2 ✅ App To-Do List 🎨 Pagine libere creative 🎯 FSACB - Ultimate Showcase 🌍 Benchmark traduzione
Modelli
🏆 Top 10 modelli 🆓 Modelli gratuiti 📋 Tutti i modelli ⚙️ Kilo Code
Risorse
💬 Libreria di prompt 📖 Glossario IA 🔗 Link utili

Glossario IA

Il dizionario completo dell'Intelligenza Artificiale

162
categorie
2.032
sottocategorie
23.060
termini
📂
sottocategorie

Bagging

Technique d'ensemble créant plusieurs modèles sur des échantillons bootstrap du dataset original et agrégeant leurs prédictions par vote majoritaire ou moyenne.

7 termini
📂
sottocategorie

Boosting

Méthode séquentielle où chaque modèle apprend des erreurs du précédent, en pondérant davantage les exemples mal classés pour améliorer progressivement les performances.

1 termini
📂
sottocategorie

Stacking

Approche combinant les prédictions de plusieurs modèles de base via un méta-modèle apprenant à optimiser leurs poids pour de meilleures prédictions finales.

11 termini
📂
sottocategorie

Random Forest

Ensemble d'arbres de décision utilisant bagging avec sélection aléatoire de features à chaque split, réduisant la variance et évitant le surapprentissage.

1 termini
📂
sottocategorie

Gradient Boosting

Algorithme de boosting construisant séquentiellement des modèles apprenant à corriger les résidus du modèle précédent via descente de gradient.

2 termini
📂
sottocategorie

AdaBoost

Adaptive Boosting ajustant les poids des exemples d'entraînement et des classifieurs faibles pour se concentrer sur les cas difficiles à classifier.

15 termini
📂
sottocategorie

XGBoost

Implémentation optimisée de gradient boosting avec régularisation L1/L2, traitement parallèle et gestion efficace des valeurs manquantes.

5 termini
📂
sottocategorie

LightGBM

Framework de gradient boosting utilisant leaf-wise growth et histogram-based algorithms pour un entraînement rapide et efficace sur grands datasets.

8 termini
📂
sottocategorie

CatBoost

Algorithme de gradient boosting spécialisé dans le traitement automatique des variables catégorielles sans encodage préalable.

10 termini
📂
sottocategorie

Voting Classifiers

Méthode d'ensemble combinant les prédictions de plusieurs classifieurs par vote majoritaire (hard voting) ou probabilités moyennes (soft voting).

17 termini
📂
sottocategorie

Extra Trees

Extremely Randomized Trees utilisant coupes aléatoires complètes pour chaque split sans bootstrap, augmentant la diversité et réduisant le biais.

11 termini
📂
sottocategorie

Blending

Variante du stacking utilisant un hold-out validation set pour entraîner le méta-modèle plutôt que cross-validation, plus simple mais moins robuste.

9 termini
📂
sottocategorie

Dynamic Ensemble Selection

Méthodes sélectionnant dynamiquement un sous-ensemble de modèles compétents pour chaque nouvelle instance à prédire, optimisant les performances locales.

16 termini
📂
sottocategorie

Ensemble Diversity

Techniques mesurant et maximisant la diversité entre modèles de base pour améliorer la robustesse de l'ensemble et réduire les erreurs corrélées.

16 termini
📂
sottocategorie

Hybrid Ensemble Methods

Combinaison de différentes techniques d'ensemble (bagging + boosting) ou intégration d'autres paradigmes comme les réseaux de neurones.

16 termini
🔍

Nessun risultato trovato