Глоссарий ИИ
Полный словарь искусственного интеллекта
Сила взаимодействия признаков
Метрика, количественно оценивающая интенсивность эффектов взаимодействия между двумя или более признаками в прогностической модели. Взаимодействие измеряется разницей между совместным эффектом и суммой индивидуальных эффектов признаков.
H-статистика Фридмана
Количественная мера взаимодействия между признаками, основанная на частичной дисперсии прогнозов модели. H-статистика варьируется от 0 (отсутствие взаимодействия) до 1 (сильное взаимодействие) и может вычисляться для парных или взаимодействий более высокого порядка.
Метрика стабильности
Показатель, измеряющий согласованность объяснений, генерируемых методом интерпретации, при небольших изменениях входных данных. Хорошая стабильность гарантирует, что объяснения не будут хаотично изменяться для схожих экземпляров.
Индекс понятности
Комплексный показатель, оценивающий легкость, с которой человек может понять объяснение или модель, на основе таких факторов, как синтаксическая сложность, размер словарного запаса и логическая структура. Этот индекс объединяет объективные и субъективные метрики читаемости.
Компромисс между интерпретируемостью и точностью
Обратная зависимость между способностью модели быть интерпретированной человеком и ее исходной прогностической производительностью. Этот компромисс количественно оценивается различными метриками, позволяющими найти оптимальный баланс в соответствии с требованиями предметной области.
Оценка пост-хок интерпретируемости
Количественная оценка качества объяснений, генерируемых после обучения модели, объединяющая точность, стабильность и понятность. Этот комплексный показатель позволяет сравнивать различные методы объяснения на одной и той же модели.
Мера внутренней интерпретируемости
Метрика, оценивающая степень присущей модели интерпретируемости, основанная на ее алгоритмической структуре, а не на внешних объяснениях. Эта мера учитывает такие факторы, как линейность, монотонность и разреженность модели.
Метрика локальной точности
Показатель, измеряющий точность локального объяснения в его способности точно отражать поведение модели в непосредственной близости от экземпляра. Эта метрика оценивает достоверность локальных приближений, используемых в таких методах, как LIME или Anchors.
Explanation Coverage
Proportion du jeu de données pour laquelle une méthode d'explication peut générer des interprétations valides et cohérentes. La couverture mesure la généralisabilité d'une technique d'interprétation et son applicabilité à différentes régions de l'espace des caractéristiques.
Rule-based Interpretability Score
Métrique spécifique aux modèles basés sur de règles évaluant la qualité des explications selon le nombre de règles, leur longueur moyenne et leur chevauchement. Ce score favorise les ensembles de règles concis, non redondants et facilement compréhensibles.
Consistency Measure
Indicateur évaluant si des explications similaires sont générées pour des instances avec des prédictions identiques ou similaires. La cohérence est cruciale pour maintenir la confiance dans les explications à travers différentes régions de l'espace de décision.