Глоссарий ИИ
Полный словарь искусственного интеллекта
Важность перестановки
Техника оценки важности признаков, измеряющая ухудшение производительности модели при случайной перестановке значений переменной, тем самым нарушая её связь с целевой переменной.
График частной зависимости (PDP)
Визуализация, показывающая среднее предельное влияние одного или двух признаков на прогноз модели, интегрируя эффекты других переменных.
Накопленные локальные эффекты (ALE)
Альтернативный метод PDP, который вычисляет эффекты признаков с учётом корреляций между переменными, избегая таким образом смещений, присутствующих в графиках частной зависимости.
Глобальная суррогатная модель
Простая и интерпретируемая модель (например, дерево решений или линейная регрессия), обученная для аппроксимации глобального поведения сложной модели на всём наборе данных.
Локальная суррогатная модель
Интерпретируемая модель, обученная специально для аппроксимации прогнозов сложной модели в ограниченной окрестности вокруг конкретного экземпляра.
Индивидуальное условное ожидание (ICE)
Визуализация, которая отображает прогноз модели для каждого отдельного экземпляра при изменении конкретного признака, раскрывая неоднородность эффектов за пределами среднего значения.
Градиентный SHAP
Вариант SHAP, который объединяет метод градиентов с эталонными выборками для эффективного приближения значений SHAP в моделях глубокого обучения.
Послойное распространение релевантности (LRP)
Техника обратного распространения, которая перераспределяет итоговый прогноз нейронной сети к входным признакам, проходя через каждый слой, сохраняя общую сумму релевантности.
Вклад признака
Количественная мера индивидуального влияния каждого признака на итоговый прогноз, часто выражаемая как разница относительно базового или эталонного значения.
Grad-CAM (градиентно-взвешенное картирование активации классов)
Техника визуализации для сверточных нейронных сетей, которая генерирует тепловые карты, локализующие важные области для конкретного прогноза с использованием градиентов последнего слоя.
SHAP значения взаимодействия
Расширение значений SHAP, которое разлагает не только важность отдельных признаков, но и их эффекты взаимодействия, количественно оценивая, как пары переменных коллективно влияют на прогноз.