🏠 Accueil
Benchmarks
📊 Tous les Benchmarks 🦖 Dinosaure v1 🦖 Dinosaure v2 ✅ To-Do List Apps 🎨 Pages Libres 🎯 FSACB - Showcase 🌍 Traduction
Modèles
🏆 Top 10 Modèles 🆓 Modèles Gratuits 📋 Tous les Modèles ⚙️ Modes Kilo Code
Ressources
💬 Prompts IA 📖 Glossaire IA 🔗 Liens Utiles

Glossaire IA

Le dictionnaire complet de l'Intelligence Artificielle

242
catégories
3 353
sous-catégories
40 780
termes
📖
termes

Ancreur (Anchors)

Une méthode qui identifie des règles décisionnelles simples et suffisantes (ancres) qui expliquent de manière haute-fidélité la prédiction d'un modèle pour une instance donnée.

📖
termes

Valeur de Shapley

Un concept de la théorie des jeux mesurant la contribution marginale moyenne d'un joueur (caractéristique) à travers toutes les coalitions possibles, servant de fondement à SHAP.

📖
termes

Perturbation d'entrée

Le processus consistant à créer de légères variations dans les données d'entrée pour observer l'effet sur la prédiction du modèle, utilisé par des méthodes comme LIME pour construire un voisinage local.

📖
termes

Fidélité (Fidelity)

Une métrique évaluant à quel point une explication locale (comme le modèle simple de LIME) imite fidèlement le comportement du modèle complexe dans son voisinage.

📖
termes

Explication Agnostique au Modèle

Une approche d'interprétabilité qui traite le modèle prédictif comme une boîte noire, n'interagissant qu'avec ses entrées et sorties pour générer des explications.

📖
termes

Carte de Salience (Saliency Map)

Une visualisation qui met en évidence les pixels ou les caractéristiques d'une entrée qui ont le plus influencé la prédiction d'un modèle, souvent obtenue par calcul du gradient.

📖
termes

Voisinage Kernel

Dans LIME, une fonction qui définit la proximité entre l'instance d'origine et les instances perturbées, pondérant leur influence dans le modèle d'explication local.

📖
termes

Règle d'Explication (Explanation Rule)

Une condition logique simple (ex: IF feature_A > X AND feature_B < Y) qui capture la raison principale d'une prédiction spécifique, typique des méthodes comme Anchors.

📖
termes

Interprétabilité Post-hoc

L'analyse d'un modèle après son entraînement pour en comprendre les décisions, par opposition aux modèles intrinsèquement interprétables.

📖
termes

SHAP Kernel Explainer

Une implémentation de SHAP utilisant une pondération de type kernel pour estimer les valeurs de Shapley, la rendant agnostique au modèle mais potentiellement plus lente.

📖
termes

SHAP Tree Explainer

Un algorithme SHAP optimisé qui calcule les valeurs exactes de Shapley pour les modèles basés sur des arbres (comme XGBoost, LightGBM) de manière très efficace.

📖
termes

Explication Locale par Surrogat

Le principe fondamental de LIME, consistant à entraîner un modèle simple et interprétable (surrogat) pour approximer le comportement du modèle complexe localement.

🔍

Aucun résultat trouvé