Глоссарий ИИ
Полный словарь искусственного интеллекта
Теорема Байеса
Математическая формула для вычисления условной вероятности события при условии, что другое событие уже произошло, теоретическая основа наивных байесовских классификаторов.
Условная независимость
Упрощающее предположение наивного Байеса, согласно которому признаки независимы друг от друга при известном классе, хотя это предположение часто нарушается на практике.
Правдоподобие (Likelihood)
Вероятность наблюдения заданных признаков при условии принадлежности к определённому классу, вычисляемая как произведение индивидуальных вероятностей в модели наивного Байеса.
Априорная вероятность
Начальная вероятность принадлежности к классу до наблюдения признаков, оцениваемая на основе относительных частот классов в обучающем наборе данных.
Апостериорная вероятность
Обновлённая вероятность принадлежности к классу после наблюдения признаков, конечный результат байесовского вычисления, используемый для классификации.
Доказательство (Evidence)
Нормализующий член теоремы Байеса, представляющий собой маргинальную вероятность наблюдения признаков, часто опускаемый при сравнительной классификации.
Мультиномиальный наивный байесовский классификатор
Вариант наивного Байеса, оптимизированный для дискретных признаков и подсчёта вхождений, особенно эффективный для классификации текстов и анализа документов.
Гауссовский наивный байесовский классификатор
Вариант, предполагающий, что признаки подчиняются нормальному распределению, подходящий для непрерывных данных и числовых атрибутов в пространстве признаков.
Наивный байесовский классификатор Бернулли
Вариант, который рассматривает признаки как бинарные переменные, указывающие на наличие или отсутствие атрибута, идеален для классификации документов по ключевым словам.
Сглаживание Лапласа
Техника регуляризации, добавляющая константу к счётчикам для избежания нулевых вероятностей, необходима при оценке условных вероятностей в наивном байесовском классификаторе.
Порождающая модель
Тип модели, которая изучает совместное распределение P(X,Y) данных и меток, позволяя генерировать новые выборки и вычислять условные вероятности.
EM-алгоритм (Алгоритм максимизации ожидания)
Итерационный алгоритм для оценки параметров в моделях со скрытыми данными, иногда используется для обучения вариантов наивного байесовского классификатора со скрытыми переменными.
Логарифмическая оценка (Log-score)
Метрика, оценивающая предсказательное качество с использованием логарифмов вероятностей, предотвращающая числовые переполнения при вычислении произведений вероятностей в наивном байесовском классификаторе.
Наивное предположение
Упрощающее допущение о независимости признаков, которое, хотя и нереалистично, позволяет проводить эффективные вычисления и часто обеспечивает хорошую практическую производительность в классификации.
Вектор признаков
Векторное представление атрибутов наблюдения, фундаментальный элемент, над которым производятся вычисления условных вероятностей в наивном байесовском классификаторе.
Условное распределение вероятностей
Функция, описывающая вероятность признаков при заданном классе, моделируемая независимо для каждого атрибута в подходе наивного байесовского классификатора.
Отношение правдоподобия
Отношение условных вероятностей между различными классами, используемое в эффективных реализациях Наивного Байеса для избежания избыточных вычислений.
Многоклассовая классификация
Естественное расширение Наивного Байеса за пределы бинарной классификации, использующее теорему Байеса для вычисления апостериорных вероятностей каждого возможного класса.
Ядерная оценка плотности
Альтернативный непараметрический метод для оценки распределений вероятностей в Наивном Байесе, когда гауссовы предположения не являются корректными.