🏠 Accueil
Benchmarks
📊 Tous les Benchmarks 🦖 Dinosaure v1 🦖 Dinosaure v2 ✅ To-Do List Apps 🎨 Pages Libres 🎯 FSACB - Showcase 🌍 Traduction
Modèles
🏆 Top 10 Modèles 🆓 Modèles Gratuits 📋 Tous les Modèles ⚙️ Modes Kilo Code
Ressources
💬 Prompts IA 📖 Glossaire IA 🔗 Liens Utiles

Glossaire IA

Le dictionnaire complet de l'Intelligence Artificielle

242
catégories
3 353
sous-catégories
40 780
termes
📖
termes

Graphique de dépendance partielle

Visualisation qui montre la relation marginale entre une ou deux caractéristiques et la prédite du modèle, en moyennant les effets de toutes les autres caractéristiques pour révéler les tendances sous-jacentes. Cette technique aide à comprendre comment les changements dans des variables spécifiques affectent les prédictions globales du modèle.

📖
termes

Carte de chaleur des caractéristiques

Représentation graphique bidimensionnelle utilisant des couleurs pour visualiser l'importance ou l'influence des différentes caractéristiques sur les prédictions du modèle. Les intensités de couleur indiquent le degré d'impact, permettant une identification rapide des variables les plus influentes.

📖
termes

Diagramme de SHAP

Visualisation basée sur les valeurs SHAP (SHapley Additive exPlanations) qui montre comment chaque caractéristique contribue à déplacer la prédiction de la valeur de base vers la prédiction finale. Ces graphiques permettent d'interpréter individuellement chaque prédiction en quantifiant l'impact positif ou négatif de chaque variable.

📖
termes

Graphique ICE (Individual Conditional Expectation)

Visualisation qui trace les prédictions du modèle pour des instances individuelles tout en faisant varier une caractéristique spécifique, révélant les hétérogénéités dans les relations entre variables. Contrairement aux graphiques PDP qui montrent les effets moyens, les graphiques ICE montrent les variations au niveau individuel.

📖
termes

Carte de décision de LIME

Visualisation générée par LIME (Local Interpretable Model-agnostic Explanations) qui explique les prédictions individuelles en créant un modèle localement interprétable et en visualisant les caractéristiques importantes. Cette technique permet de comprendre pourquoi un modèle prend une décision spécifique pour un cas particulier.

📖
termes

Visualisation de permutation d'importance

Graphique à barres représentant l'importance des caractéristiques calculée en mesurant la diminution de performance du modèle lorsque les valeurs d'une caractéristique sont aléatoirement permutées. Cette méthode fournit une évaluation model-agnostic de l'importance des variables basée sur leur impact réel sur les prédictions.

📖
termes

Courbe ROC et AUC

Graphique représentant le taux de vrais positifs en fonction du taux de faux positifs pour différents seuils de classification, avec l'AUC (Area Under Curve) quantifiant la performance globale du classificateur. Cette visualisation permet d'évaluer et comparer la capacité discriminante des modèles indépendamment du seuil choisi.

📖
termes

Diagramme de cascade

Visualisation séquentielle montrant comment les contributions de différentes caractéristiques s'accumulent pour atteindre la prédiction finale du modèle, similaire à un diagramme de waterfall financier. Chaque barre représente l'impact positif ou négatif d'une caractéristique sur la prédiction finale.

📖
termes

Graphique de force local

Représentation visuelle montrant comment chaque caractéristique pousse la prédiction d'un modèle vers une valeur plus élevée ou plus basque par rapport à la valeur de base attendue. Les forces sont représentées par des flèches ou des barres colorées indiquant la direction et l'amplitude de l'influence.

📖
termes

Visualisation de décision réglable

Interface interactive permettant d'ajuster dynamiquement les valeurs des caractéristiques d'entrée et d'observer en temps réel comment ces changements affectent les prédictions du modèle. Ces outils facilitent l'exploration des relations complexes et l'analyse de sensibilité des modèles.

📖
termes

Carte de décision d'ancrage

Visualisation basée sur les explications par ancres (Anchors) qui identifie les conditions suffisantes pour qu'un modèle maintienne sa prédiction, présentées sous forme de règles if-then. Ces cartes aident à comprendre les régions de décision locales en montrant les caractéristiques critiques qui ancrent une prédiction.

📖
termes

Diagramme de dépendance

Graphique bidimensionnel ou tridimensionnel illustrant les relations et dépendances entre les caractéristiques d'entrée et les prédictions du modèle, souvent combiné avec des densités de points. Ces diagrammes révèlent les interactions non linéaires et les corrélations complexes dans les données.

📖
termes

Graphique de contour de décision

Visualisation en deux ou trois dimensions montrant les frontières de décision d'un modèle de classification à travers des lignes ou surfaces de contour colorées. Ces graphiques permettent de comprendre comment le modèle partitionne l'espace des caractéristiques pour effectuer ses classifications.

📖
termes

Visualisation de contre-factuel

Représentation graphique montrant les modifications minimales nécessaires aux caractéristiques d'entrée pour changer la prédiction du modèle vers une issue souhaitée différente. Ces visualisations aident à comprendre les conditions limites et à explorer des scénarios hypothétiques.

📖
termes

Arbre de régression

Variante de l'arbre de décision spécialisée dans les problèmes de régression, visualisant comment le modèle partitionne l'espace des caractéristiques en régions avec des valeurs cibles constantes. Chaque feuille représente la moyenne des valeurs cibles dans cette région, facilitant l'interprétation des relations non linéaires.

📖
termes

Diagramme de flux de décision

Représentation schématique du processus de décision séquentiel d'un modèle, montrant les points de décision, les actions possibles et les résultats attendus sous forme de flux logique. Ces diagrammes transforment les algorithmes complexes en processus compréhensibles étape par étape.

📖
termes

Carte de sensibilité

Visualisation en grille ou en surface montrant comment les prédictions du modèle varient systématiquement lorsque deux caractéristiques sont modifiées simultanément. Ces cartes révèlent les interactions entre variables et identifient les régions de haute sensibilité dans l'espace des caractéristiques.

📖
termes

Visualisation d'importance globale

Graphique synthétique présentant le classement des caractéristiques par ordre d'importance pour l'ensemble du modèle, souvent sous forme de barres horizontales avec des scores normalisés. Cette vue d'ensemble permet d'identifier rapidement les facteurs les plus influents dans les prédictions globales du modèle.

🔍

Aucun résultat trouvé