Глоссарий ИИ
Полный словарь искусственного интеллекта
Верность объяснения
Мера, количественно определяющая соответствие между предсказаниями чёрной модели и предсказаниями интерпретируемой модели, используемой для генерации объяснений. Высокая верность указывает на то, что объяснение достоверно представляет поведение исходной модели в рассматриваемой локальной области.
Стабильность объяснений
Индикатор, оценивающий согласованность генерируемых объяснений для схожих экземпляров или для того же экземпляра с небольшими вариациями. Стабильность гарантирует, что объяснения не изменяются хаотично при незначительных изменениях входных данных.
Полнота объяснения
Метрика, измеряющая способность объяснения охватывать все релевантные факторы, влияющие на решение модели. Полное объяснение должно интегрировать все значимые характеристики без пропуска критически важных элементов.
Семантическая релевантность
Оценка согласованности между сгенерированным объяснением и знаниями предметной области или ожидаемым человеческим рассуждением. Эта метрика количественно определяет, соответствуют ли производимые объяснения логике и интуиции экспертов в данной области.
Компактность объяснения
Мера лаконичности объяснения, оценивающая соотношение между объёмом предоставляемой информации и её структурной сложностью. Компактное объяснение отдаёт приоритет наиболее релевантным элементам, одновременно минимизируя информационную избыточность.
Робастность объяснения
Способность объяснения сохранять свою валидность перед лицом возмущений или атак на входные данные. Эта метрика оценивает устойчивость объяснений к злонамеренным манипуляциям, направленным на введение в заблуждение.
Гранулярная детализация
Уровень детализации, на котором работает объяснение, от глобальных объяснений (вся модель) до локальных (конкретный экземпляр). Гранулярная детализация определяет точность и специфичность предоставляемой интерпретации.
Согласованность между объяснениями
Мера, оценивающая логическую согласованность между различными объяснениями, сгенерированными для разнообразных, но семантически близких экземпляров. Эта метрика обеспечивает, что объяснения следуют разумным и непротиворечивым схемам.
Воспринимаемая полезность
Качественный показатель, измеряющий легкость, с которой пользователи могут понимать, интерпретировать и применять генерируемые объяснения. Воспринимаемая полезность оценивает соответствие между технической сложностью объяснения и когнитивными способностями пользователя.
Объяснительная проверяемость
Способность независимо подтверждать или опровергать достоверность объяснений, предоставляемых моделью. Проверяемость позволяет пользователям проверять согласованность объяснений с внешними знаниями или эмпирическими тестами.
Объяснительный разрыв
Количественная разница между внутренней сложностью модели и простотой ее объяснения. Высокий разрыв может указывать на значительную потерю информации в процессе упрощения объяснения.
Причинная специфичность
Метрика, оценивающая, правильно ли объяснение идентифицирует причинно-следственные связи, а не простые корреляции. Причинная специфичность отличает факторы, которые действительно влияют на решение, от тех, которые просто сопутствуют.
Объяснительная обобщаемость
Способность локального объяснения последовательно применяться к другим похожим экземплярам набора данных. Эта метрика оценивает, могут ли выявленные объяснительные схемы быть экстраполированы за пределы конкретного изучаемого случая.
Объяснительная уверенность
Количественный уровень уверенности, связанный с объяснением, указывающий на вероятность того, что объяснение является правильным. Объяснительная уверенность позволяет пользователям оценивать надежность интерпретаций, предоставляемых системой.
Объяснительная справедливость
Метрика, оценивающая, обрабатывают ли генерируемые объяснения различные демографические группы или подпопуляции справедливо. Объяснительная справедливость гарантирует отсутствие дискриминационных предубеждений в том, как решения обосновываются.
Объяснительное покрытие
Доля пространства признаков или экземпляров, для которых модель может генерировать достоверные объяснения. Высокое покрытие обеспечивает, что система объяснений может работать с большинством случаев, встречающихся на практике.
Объяснительная задержка
Вычислительное время, необходимое для генерации объяснения после того, как модель произвела свой прогноз. Эта метрика крайне важна для приложений реального времени, где объяснения должны предоставляться быстро.
Контрфактическая верность
Специфическая мера, оценивающая качество контрфактических объяснений с точки зрения минимальности требуемых изменений и правдоподобности генерируемых сценариев. Эта метрика гарантирует, что предлагаемые контрфакты реалистичны и пригодны для действий.