Глоссарий ИИ
Полный словарь искусственного интеллекта
Методы локальной интерпретации
Техники, объясняющие индивидуальные решения модели для конкретных прогнозов, такие как LIME и SHAP.
Глобальная интерпретируемость
Подходы, позволяющие понять общее поведение модели на всем наборе данных.
Атрибуция характеристик
Методы, оценивающие важность каждой входной переменной в окончательном решении модели.
Модели Белого Ящика
Внутренне интерпретируемые алгоритмы, такие как деревья решений, линейные регрессии и логические правила.
Визуализация решений
Графические техники, представляющие процессы принятия решений и отношения между переменными.
Объяснения с помощью контрфактуалов
Гипотетические сценарии, показывающие, как изменить входные данные, чтобы изменить прогноз модели.
Интерпретируемость нейронных сетей
Специализированные методы для понимания и визуализации решений сложных моделей глубокого обучения.
Метрики оценки интерпретируемости
Показатели, количественно оценивающие качество, достоверность и полезность объяснений, генерируемых моделями.
Интерпретируемость причинно-следственных связей
Подходы, выявляющие причинно-следственные связи, а не простые корреляции в решениях ИИ.
Пост-фактум объяснения против внутренних
Различие между объяснениями, добавленными после обучения, и теми, которые встроены непосредственно в архитектуру модели.
Извлечение Интерпретируемых Правил
Техники, преобразующие сложные модели в наборы логических правил, понятных человеку.
Интерпретируемость для Регуляторного Аудита
Методы, адаптированные к требованиям правового соответствия, таким как GDPR и директивы по прозрачности ИИ.