Glossário IA
O dicionário completo da Inteligência Artificial
Núcleo ARD
Núcleo de Determinação de Relevância Automática (Automatic Relevance Determination) que atribui uma escala de comprimento distinta a cada dimensão de entrada, permitindo ao modelo de processo gaussiano identificar as variáveis mais influentes.
Núcleo de Mistura Espectral
Núcleo não-estacionário construído como uma soma ponderada de núcleos de base estacionários com parâmetros distintos, permitindo capturar estruturas multi-escala e variações locais na função objetivo.
Núcleo de Comprimento de Característica Variável
Núcleo onde os parâmetros de escala de comprimento são eles próprios funções da entrada, conferindo ao processo gaussiano subjacente uma propriedade de não-estacionaridade para se adaptar a dinâmicas locais em mudança.
Núcleo de Estrutura de Covariância Aditiva
Núcleo que decompõe a função objetivo numa soma de funções de subconjuntos de dimensões de entrada, explorando a estrutura aditiva para melhorar a eficiência da otimização em alta dimensão.
Núcleo de Deep Gaussian Process
Núcleo implícito resultante da composição de vários processos gaussianos, onde a saída de uma camada serve de entrada para a seguinte, permitindo modelar estruturas hierárquicas complexas e não-lineares.
Núcleo de Warping
Núcleo que aplica uma transformação não-linear (warping) às entradas ou saídas de um núcleo de base, permitindo modelar funções objetivo com anisotropias ou não-estacionaridades complexas.
Núcleo Baseado em Funções Ortogonais
Núcleo construído a partir de uma expansão em série de funções ortogonais (e.g., polinómios de Legendre, funções trigonométricas), oferecendo maior interpretabilidade e melhor extrapolação em certos contextos.
Núcleo de Gibbs
Núcleo não-estacionário onde a função de covariância depende da posição no espaço de entrada, definido através de uma função de variância e uma função de comprimento de característica locais.
Kernel de Bochner
Kernel estacionário cuja forma é determinada por sua densidade espectral via o teorema de Bochner, oferecendo um arcabouço teórico para a concepção de kernels com propriedades de frequência específicas.
Kernel de Grafo
Kernel definido sobre dados estruturados em grafos, medindo a similaridade entre dois grafos ao contar subestruturas comuns (e.g., caminhos, árvores, ciclos), utilizado para otimização em espaços discretos.
Kernel de Regressão por Processo Gaussiano com Múltiplos Kernels
Abordagem onde o kernel final é uma combinação linear ou não-linear de vários kernels base, aprendida automaticamente a partir dos dados para capturar as diferentes componentes da função objetivo.
Kernel de Estacionaridade Local
Kernel que modela a função objetivo como localmente estacionária em vizinhanças do espaço de entrada, com parâmetros de covariância que variam lentamente, oferecendo um compromisso entre flexibilidade e interpretabilidade.
Kernel de Covariância com Decomposição em Valores Singulares
Kernel construído realizando uma decomposição em valores singulares (SVD) em uma matriz de covariância inicial, permitindo reduzir o ruído e capturar as direções principais de variação da função objetivo.
Kernel de Heterocedasticidade
Kernel que modela uma variância do ruído dependente da entrada, essencial para a otimização bayesiana quando a precisão das observações da função objetivo varia espacialmente.
Kernel de Estrutura de Covariância de Kronecker
Kernel que explora a estrutura de produto de Kronecker na matriz de covariância, típica para funções objetivo em grades ou tensores, reduzindo a complexidade computacional de O(N^3) para O(N).
Kernel de Regressão com Kernels Convexos
Kernel projetado para impor uma restrição de convexidade (ou concavidade) ao modelo de processo gaussiano, utilizado para a otimização de funções conhecidas por serem convexas a fim de melhorar a convergência.