🏠 Home
Benchmark
📊 Tutti i benchmark 🦖 Dinosauro v1 🦖 Dinosauro v2 ✅ App To-Do List 🎨 Pagine libere creative 🎯 FSACB - Ultimate Showcase 🌍 Benchmark traduzione
Modelli
🏆 Top 10 modelli 🆓 Modelli gratuiti 📋 Tutti i modelli ⚙️ Kilo Code
Risorse
💬 Libreria di prompt 📖 Glossario IA 🔗 Link utili

Glossario IA

Il dizionario completo dell'Intelligenza Artificiale

162
categorie
2.032
sottocategorie
23.060
termini
📂
sottocategorie

Arbres de Décision Classiques

Algorithmes fondamentaux comme CART, ID3 et C4.5 qui construisent des structures arborescentes pour prendre des décisions basées sur des règles de partitionnement.

8 termini
📂
sottocategorie

Random Forest

Méthode d'ensemble qui combine multiples arbres de décision entraînés sur des sous-échantillons bootstrap pour réduire la variance et éviter le surapprentissage.

12 termini
📂
sottocategorie

Gradient Boosting Machines

Technique d'ensemble séquentielle qui construit des modèles additifs en optimisant une fonction de perte via descente de gradient.

11 termini
📂
sottocategorie

XGBoost

Implémentation optimisée du gradient boosting avec régularisation L1/L2, traitement parallèle et gestion efficace des valeurs manquantes.

11 termini
📂
sottocategorie

LightGBM

Algorithme de gradient boosting utilisant la croissance par feuille (leaf-wise) et l'échantillonnage basé sur les histogrammes pour une performance accrue.

12 termini
📂
sottocategorie

CatBoost

Méthode de gradient boosting spécialisée dans le traitement automatique des variables catégorielles avec encodage target-wise et boosting ordonné.

13 termini
📂
sottocategorie

AdaBoost

Algorithme de boosting adaptatif qui ajuste les poids des observations difficiles à prédire à travers des itérations successives d'apprenants faibles.

15 termini
📂
sottocategorie

Bagging

Technique d'ensemble parallèle utilisant le bootstrap aggregating pour réduire la variance en combinant des modèles entraînés sur différents échantillons.

16 termini
📂
sottocategorie

Stacking et Blending

Méthodes d'ensemble qui combinent les prédictions de multiples modèles de base via un méta-modèle pour améliorer la performance globale.

15 termini
📂
sottocategorie

Extra Trees

Extremely Randomized Trees, méthode similaire à Random Forest mais avec sélection aléatoire des seuils de division pour une randomisation accrue.

4 termini
📂
sottocategorie

Arbres de Régression vs Classification

Spécialisation des arbres de décision pour les problèmes de régression (prédiction continue) ou de classification (prédiction discrète).

7 termini
📂
sottocategorie

Méthodes d'Ensemble Parallèles

Approches où les modèles sont construits indépendamment et simultanément, comme Random Forest et Bagging, pour réduire la variance.

7 termini
🔍

Nessun risultato trovato