🏠 Accueil
Benchmarks
📊 Tous les Benchmarks 🦖 Dinosaure v1 🦖 Dinosaure v2 ✅ To-Do List Apps 🎨 Pages Libres 🎯 FSACB - Showcase 🌍 Traduction
Modèles
🏆 Top 10 Modèles 🆓 Modèles Gratuits 📋 Tous les Modèles ⚙️ Modes Kilo Code
Ressources
💬 Prompts IA 📖 Glossaire IA 🔗 Liens Utiles

Glossaire IA

Le dictionnaire complet de l'Intelligence Artificielle

242
catégories
3 353
sous-catégories
40 780
termes
📖
termes

Feature Interaction Strength

Métrique quantifiant l'intensité des effets d'interaction entre deux ou plusieurs caractéristiques dans un modèle prédictif. L'interaction est mesurée par la différence entre l'effet combiné et la somme des effets individuels des caractéristiques.

📖
termes

H-statistique de Friedman

Mesure quantitative de l'interaction entre caractéristiques basée sur la variance partielle des prédictions du modèle. L'H-statistique varie de 0 (pas d'interaction) à 1 (interaction forte) et peut être calculée pour les interactions paires ou d'ordre supérieur.

📖
termes

Stability Metric

Indicateur mesurant la cohérence des explications générées par une méthode d'interprétation face à de légères variations des données d'entrée. Une bonne stabilité garantit que les explications ne varient pas de manière erratique pour des instances similaires.

📖
termes

Comprehensibility Index

Score composite évaluant la facilité avec laquelle un humain peut comprendre une explication ou un modèle, basé sur des facteurs comme la complexité syntaxique, la taille du vocabulaire et la structure logique. Cet index combine des métriques objectives et subjectives de lisibilité.

📖
termes

Interpretability-Accuracy Trade-off

Relation inverse entre la capacité d'un modèle à être interprété par un humain et sa performance prédictive brute. Ce compromis est quantifié par divers métriques permettant de trouver un équilibre optimal selon les exigences du domaine d'application.

📖
termes

Post-hoc Explainability Score

Évaluation quantitative de la qualité des explications générées après l'entraînement du modèle, combinant fidélité, stabilité et compréhensibilité. Ce score composite permet de comparer différentes techniques d'explication sur un même modèle.

📖
termes

Intrinsic Interpretability Measure

Métrique évaluant le degré d'interprétabilité inhérente d'un modèle basée sur sa structure algorithmique plutôt que sur des explications externes. Cette mesure considère des facteurs comme la linéarité, la monotonie et la parcimonie du modèle.

📖
termes

Local Fidelity Metric

Indicateur mesurant la précision d'une explication locale dans sa capacité à représenter fidèlement le comportement du modèle dans le voisinage immédiat d'une instance. Cette métrique évalue la validité des approximations locales utilisées dans les méthodes comme LIME ou Anchors.

📖
termes

Explanation Coverage

Proportion du jeu de données pour laquelle une méthode d'explication peut générer des interprétations valides et cohérentes. La couverture mesure la généralisabilité d'une technique d'interprétation et son applicabilité à différentes régions de l'espace des caractéristiques.

📖
termes

Rule-based Interpretability Score

Métrique spécifique aux modèles basés sur de règles évaluant la qualité des explications selon le nombre de règles, leur longueur moyenne et leur chevauchement. Ce score favorise les ensembles de règles concis, non redondants et facilement compréhensibles.

📖
termes

Consistency Measure

Indicateur évaluant si des explications similaires sont générées pour des instances avec des prédictions identiques ou similaires. La cohérence est cruciale pour maintenir la confiance dans les explications à travers différentes régions de l'espace de décision.

🔍

Aucun résultat trouvé