Glosario IA
El diccionario completo de la Inteligencia Artificial
Problema de optimización cuadrática
Formulación matemática del problema SVM donde el objetivo es minimizar una función cuadrática bajo restricciones lineales, requiriendo algoritmos especializados para su resolución.
Gradiente estocástico
Método de optimización que actualiza los parámetros del modelo utilizando una sola muestra a la vez para aproximar el gradiente, permitiendo una convergencia rápida en grandes conjuntos de datos.
Función kernel
Función matemática que permite transformar implícitamente los datos en un espacio de dimensión superior donde se vuelven linealmente separables, sin calcular explícitamente esta transformación.
Variables de dualidad
Multiplicadores de Lagrange en la formulación dual del problema SVM que determinan la importancia de cada vector de soporte en la construcción del hiperplano de decisión.
Condiciones KKT (Karush-Kuhn-Tucker)
Condiciones necesarias y suficientes para la optimalidad en problemas de optimización con restricciones, utilizadas para verificar la convergencia de los algoritmos de optimización SVM.
Hiperparámetros SVM
Parámetros no aprendidos por el modelo que deben configurarse antes del entrenamiento, incluyendo el parámetro de regularización C y los parámetros de la función kernel.
Método de puntos interiores
Algoritmo de optimización que resuelve el problema cuadrático SVM atravesando el interior de la región factible, ofreciendo una convergencia polinomial garantizada para problemas convexos.
Función de pérdida Hinge
Función de pérdida convexa utilizada en los SVM que penaliza las clasificaciones incorrectas y aquellas cercanas al límite de decisión, favoreciendo un margen máximo.
Método de Newton
Algoritmo de optimización de segundo orden que utiliza la matriz Hessiana para encontrar más rápidamente el mínimo de la función objetivo SVM, particularmente eficaz para problemas de tamaño mediano.
Algoritmo de descenso de coordenadas
Método de optimización que minimiza la función objetivo optimizando una coordenada a la vez mientras mantiene las otras fijas, utilizado en algunas implementaciones SVM eficientes.
Descomposición por bloques
Estrategia de optimización que divide el problema SVM en subproblemas más pequeños tratados secuencialmente, reduciendo los requisitos de memoria para conjuntos de datos grandes.