Глоссарий ИИ
Полный словарь искусственного интеллекта
Стабильность (Stability)
Мера согласованности сгенерированных объяснений для схожих экземпляров или для того же экземпляра с незначительными изменениями данных. Низкая стабильность может указывать на неустойчивое объяснение или нестабильную модель.
Неверность (Infidelity)
Метрика, количественно оценивающая расхождение между градиентом модели объяснения и градиентом черной ящичной модели. Она измеряет способность объяснения правильно улавливать чувствительность модели к изменениям входных данных.
Сложность объяснения (Explanation Complexity)
Мера простоты или краткости объяснения, часто оцениваемая количеством правил, признаков или ненулевых членов. Низкая сложность способствует лучшему человеческому пониманию.
Оценка робастности (Robustness Score)
Количественная оценка вариации объяснений при столкновении с противоречивыми возмущениями входных данных. Высокий балл означает, что объяснения хорошо сопротивляются атакам и шумам.
Площадь под кривой точности (AUC-Fidelity)
Агрегированная метрика, вычисляющая площадь под кривой точности в зависимости от размера окрестности или количества используемых признаков. Она позволяет сравнивать общую производительность методов объяснения.
Разрыв локального прогноза (Local Prediction Gap)
Абсолютная разница между прогнозом черной ящичной модели и прогнозом модели объяснения для конкретного экземпляра. Эта метрика оценивает точность локальной аппроксимации.
Коэффициент сжатия (Compression Rate)
Соотношение между количеством признаков в исходной модели и количеством признаков в упрощенном объяснении. Он количественно оценивает степень упрощения объяснения по сравнению с полной моделью.
Согласованность объяснений (Explanation Coherence)
Мера логической согласованности между объяснениями, сгенерированными для разных экземпляров одного класса или для соседних экземпляров. Она оценивает общую согласованность системы объяснений.
Fonction de Perte d'Explication (Explanation Loss Function)
Fonction objectif mathématique utilisée pour optimiser les paramètres d'un modèle d'explication. Elle équilibre généralement la fidélité au modèle original et la complexité de l'explication.
Sensibilité au Bruit (Noise Sensitivity)
Métrique quantifiant la variation des explications lorsque des bruits aléatoires sont ajoutés aux données d'entrée. Une faible sensibilité au bruit est souhaitable pour des explications fiables.
Monotonicité de l'Explication (Explanation Monotonicity)
Propriété mesurant si les importances des features dans l'explication varient de manière cohérente avec les changements monotones des valeurs d'entrée. Elle assure la cohérence directionnelle des explications.
Erreur de Reconstruction (Reconstruction Error)
Métrique évaluant la capacité d'une explication à reconstruire le comportement du modèle original, souvent mesurée par l'erreur quadratique moyenne entre les prédictions. Elle est cruciale pour les méthodes basées sur la distillation de modèle.
Indice de Sélectivité (Selectivity Index)
Mesure quantifiant la capacité d'une méthode d'explication à se concentrer sur les features les plus pertinentes pour une prédiction donnée. Un indice élevé indique une meilleure identification des variables clés.
Score de Fidélité Normalisé (Normalized Fidelity Score)
Métrique de fidélité mise à l'échelle entre 0 et 1 pour faciliter la comparaison entre différents modèles et méthodes d'explication. Elle permet une évaluation standardisée de la qualité des explications.
Protocole d'Évaluation par Soustraction de Feature (Feature Ablation Evaluation Protocol)
Méthodologie systématique évaluant la qualité d'une explication en mesurant l'impact sur la performance du modèle lorsque les features identifiées comme importantes sont retirées ou masquées.
Métrique de Complétude (Completeness Metric)
Évaluation quantitative mesurant si une explication capture tous les facteurs pertinents ayant contribué à une prédiction spécifique. Elle s'oppose aux explications partielles ou incomplètes.
Дисперсия объяснения (Explanation Variance)
Статистическая мера разброса объяснений, сгенерированных при нескольких запусках для одного и того же экземпляра. Низкая дисперсия важна для воспроизводимости и надежности объяснений.