🏠 Accueil
Benchmarks
📊 Tous les Benchmarks 🦖 Dinosaure v1 🦖 Dinosaure v2 ✅ To-Do List Apps 🎨 Pages Libres 🎯 FSACB - Showcase 🌍 Traduction
Modèles
🏆 Top 10 Modèles 🆓 Modèles Gratuits 📋 Tous les Modèles ⚙️ Modes Kilo Code
Ressources
💬 Prompts IA 📖 Glossaire IA 🔗 Liens Utiles

Glossaire IA

Le dictionnaire complet de l'Intelligence Artificielle

242
catégories
3 353
sous-catégories
40 780
termes
📖
termes

Arbre de Décision

Modèle prédictif supervisé qui utilise une structure arborescente pour modéliser les décisions et leurs conséquences possibles à travers une série de tests sur les caractéristiques des données.

📖
termes

Nœud Racine

Point de départ d'un arbre de décision qui représente l'ensemble complet des données d'entraînement et contient la première division basée sur la caractéristique la plus discriminante.

📖
termes

Nœud Interne

Nœud intermédiaire dans un arbre de décision qui représente un test sur une caractéristique spécifique et divise les données en sous-ensembles homogènes.

📖
termes

Feuille

Nœud terminal d'un arbre de décision qui représente une décision finale ou une prédiction de classe, sans aucune division ultérieure possible.

📖
termes

Critère de Division

Méthode quantitative utilisée pour évaluer la qualité d'une division dans un arbre de décision, visant à maximiser l'homogénéité des sous-ensembles résultants.

📖
termes

Entropie

Mesure mathématique du désordre ou de l'incertitude dans un ensemble de données, utilisée pour quantifier l'impureté d'un nœud dans les arbres de décision.

📖
termes

Gain d'Information

Métrique qui mesure la réduction d'entropie obtenue en divisant un nœud selon une caractéristique spécifique, utilisée pour sélectionner la meilleure division.

📖
termes

Indice de Gini

Mesure d'impureté variant entre 0 et 1, calculant la probabilité qu'un élément choisi au hasard soit incorrectement classifié, alternative à l'entropie dans les arbres de décision.

📖
termes

Élagage

Technique de réduction de la complexité d'un arbre de décision en supprimant les branches qui apportent peu de pouvoir prédictif pour éviter le surapprentissage.

📖
termes

Surapprentissage

Phénomène où un modèle apprend excessivement les détails et le bruit des données d'entraînement au détriment de sa capacité de généralisation sur de nouvelles données.

📖
termes

Profondeur de l'Arbre

Nombre maximal de divisions depuis le nœud racine jusqu'à une feuille, paramètre crucial contrôlant la complexité et le biais du modèle.

📖
termes

CART

Algorithme de Classification and Regression Trees qui construit des arbres binaires en utilisant l'indice de Gini comme critère de division pour la classification.

📖
termes

ID3

Algorithme pionnier d'arbres de décision utilisant le gain d'information comme critère de division, limité aux variables catégorielles et aux divisions binaires.

📖
termes

C4.5

Amélioration de l'algorithme ID3 qui utilise le ratio de gain d'information pour éviter le biais envers les caractéristiques avec de nombreuses valeurs.

📖
termes

Variable Cible

Variable à prédire dans un problème d'apprentissage supervisé, représentée par les feuilles terminales de l'arbre de décision.

📖
termes

Règle de Décision

Ensemble logique de conditions IF-THEN extrait d'un chemin dans l'arbre de décision, permettant d'interpréter et d'expliquer les prédictions du modèle.

📖
termes

Importance des Variables

Mesure quantitative de la contribution de chaque caractéristique prédictive dans l'amélioration de la pureté des divisions tout au long de l'arbre.

📖
termes

Coût de Complexité

Paramètre d'élagage qui pénalise la taille de l'arbre, équilibrant l'ajustement aux données et la simplicité du modèle pour optimiser la généralisation.

🔍

Aucun résultat trouvé