Глоссарий ИИ
Полный словарь искусственного интеллекта
Machine à Vecteurs de Support
Algorithme d'apprentissage supervisé utilisé pour la classification et la régression, cherchant l'hyperplan optimal qui sépare les classes avec la marge maximale possible. Les SVM reposent sur des principes statistiques et mathématiques robustes pour garantir une bonne généralisation.
Hyperplan de séparation
Sous-espace affine de dimension n-1 dans un espace à n dimensions qui divise cet espace en deux demi-espaces distincts. Dans les SVM linéaires, l'hyperplan optimal maximise la distance minimale entre les points des différentes classes.
Fonction de décision
Expression mathématique f(x) = w·x + b qui permet de classer un nouveau point en fonction de sa position par rapport à l'hyperplan. Le signe de cette fonction détermine l'appartenance à une classe tandis que sa valeur absolue mesure la confiance de la classification.
Formulation primale
Représentation mathématique originale du problème d'optimisation SVM qui minimise directement la norme du vecteur poids sous contraintes de classification correcte. Cette formulation met en évidence l'objectif de maximisation de la marge de manière intuitive.
Optimisation convexe
Domaine des mathématiques appliquées traitant de la minimisation de fonctions convexes sur des ensembles convexes, garantissant l'existence et l'unicité de la solution optimale. Les SVM bénéficient de cette propriété pour assurer la convergence vers la solution globale.
Variable de Lagrange
Multiplicateurs introduits pour transformer un problème d'optimisation sous contraintes en un problème sans contraintes équivalent. Dans les SVM, ces variables indiquent quels points d'entraînement deviennent des vecteurs de support.
Noyau linéaire
Fonction noyau la plus simple qui calcule directement le produit scalaire entre deux vecteurs dans l'espace d'origine sans transformation. Le noyau linéaire est utilisé lorsque les classes sont linéairement séparables et offre une interprétabilité maximale du modèle.
Paramètre C
Hyperparamètre de régularisation des SVM qui détermine le compromis entre la maximisation de la marge et la minimisation des erreurs de classification sur l'ensemble d'entraînement. Une valeur élevée de C favorise moins d'erreurs mais peut conduire au surapprentissage.
Метод множителей Лагранжа
Подход к решению задач оптимизации с ограничениями путём введения множителей, связанных с каждым ограничением. Этот метод является фундаментальным для решения задачи оптимизации SVM.
Задача линейного разделения
Теоретический случай, когда гиперплоскость может идеально разделить точки разных классов без ошибок классификации. Линейные SVM оптимизируются для наилучшего возможного разделения, даже когда классы не полностью разделимы.
Оптимальный линейный классификатор
Модель линейной классификации, которая максимизирует отступ между классами, теоретически гарантируя наилучшую обобщающую способность среди всех возможных линейных классификаторов. Оптимальность доказана статистической теорией обучения.
Метрика расстояния
Математическая функция, определяющая понятие расстояния между точками в пространстве признаков, необходимая для вычисления отступа в SVM. Евклидово расстояние обычно используется для измерения удалённости от гиперплоскости.
Сходимость алгоритма
Гарантированное свойство алгоритмов оптимизации SVM достигать оптимального решения за конечное число итераций благодаря выпуклой природе задачи. Эта сходимость обеспечивает воспроизводимость и надёжность полученных результатов.