Glossário IA
O dicionário completo da Inteligência Artificial
Problema de Otimização Quadrática
Formulação matemática do problema SVM onde o objetivo é minimizar uma função quadrática sob restrições lineares, exigindo algoritmos especializados para sua resolução.
Gradiente Estocástico
Método de otimização que atualiza os parâmetros do modelo usando uma única amostra por vez para aproximar o gradiente, permitindo uma convergência rápida em grandes conjuntos de dados.
Função Kernel
Função matemática que permite transformar implicitamente os dados em um espaço de dimensão superior onde eles se tornam linearmente separáveis, sem calcular explicitamente essa transformação.
Variáveis de Dualidade
Multiplicadores de Lagrange na formulação dual do problema SVM que determinam a importância de cada vetor de suporte na construção do hiperplano de decisão.
Condições KKT (Karush-Kuhn-Tucker)
Condições necessárias e suficientes para a otimalidade em problemas de otimização com restrições, usadas para verificar a convergência dos algoritmos de otimização SVM.
Hiperparâmetros SVM
Parâmetros não aprendidos pelo modelo que devem ser configurados antes do treinamento, incluindo o parâmetro de regularização C e os parâmetros da função kernel.
Método dos Pontos Interiores
Algoritmo de otimização que resolve o problema quadrático SVM atravessando o interior da região viável, oferecendo convergência polinomial garantida para problemas convexos.
Função de Perda Hinge
Função de perda convexa utilizada em SVMs que penaliza classificações incorretas e aquelas próximas da fronteira de decisão, favorecendo uma margem máxima.
Método de Newton
Algoritmo de otimização de segunda ordem que utiliza a matriz Hessiana para encontrar mais rapidamente o mínimo da função objetivo SVM, particularmente eficaz para problemas de tamanho médio.
Algoritmo de descida de coordenadas
Método de otimização que minimiza a função objetivo otimizando uma coordenada de cada vez, mantendo as outras fixas, utilizado em algumas implementações SVM eficientes.
Decomposição por blocos
Estratégia de otimização que divide o problema SVM em subproblemas menores tratados sequencialmente, reduzindo as necessidades de memória para grandes conjuntos de dados.