Glossário IA
O dicionário completo da Inteligência Artificial
Análise de Componentes Principais
Método estatístico de redução de dimensionalidade linear que transforma variáveis correlacionadas em novas variáveis não correlacionadas chamadas componentes principais, maximizando a variância explicada.
t-SNE
Algoritmo de redução de dimensionalidade não linear particularmente eficaz para visualização de dados de alta dimensão, preservando estruturas locais e similaridades entre pontos vizinhos.
UMAP
Técnica de redução de dimensionalidade não linear baseada na topologia algébrica que preserva tanto a estrutura local quanto global dos dados, sendo mais rápida que t-SNE.
Análise de Componentes Independentes
Método de separação cega de fontes estatísticas que transforma os dados em componentes estatisticamente independentes, assumindo que os sinais fonte são não gaussianos.
Fatorização de Matriz Não Negativa
Algoritmo de redução de dimensionalidade que decompõe uma matriz não negativa em duas matrizes de posto inferior também não negativas, facilitando a interpretabilidade dos componentes.
Análise Discriminante Linear
Método supervisionado de redução de dimensionalidade que maximiza a separação entre classes enquanto minimiza a variância intraclasse, usado principalmente para classificação.
Autoencoders Variacionais
Modelo generativo de aprendizado profundo que aprende uma representação latente probabilística dos dados usando redes neurais codificador-decodificador com regularização variacional.
Isomap
Algoritmo de redução de dimensionalidade não linear que preserva distâncias geodésicas na variedade dos dados usando os caminhos mais curtos no grafo dos vizinhos mais próximos.
Locally Linear Embedding
Técnica não linear que preserva as relações lineares locais entre pontos, reconstruindo cada ponto como combinação linear de seus vizinhos mais próximos no espaço de baixa dimensão.
Análise Fatorial
Método estatístico exploratório que identifica variáveis latentes não observadas (fatores) que explicam as correlações entre variáveis observadas em um conjunto de dados multivariados.
Matriz de Covariância
Matriz quadrada simétrica que quantifica as covariâncias entre pares de variáveis, fundamental para compreender as relações lineares nos dados e calcular os componentes principais.
Valores Próprios
Escalares associados aos vetores próprios de uma transformação linear, representando a importância relativa de cada componente principal na análise de componentes principais.
Vetores Próprios
Direções nas quais uma transformação linear atua por simples dilatação, correspondendo aos eixos principais de variação máxima no espaço dos dados originais.
Matriz de Gram
Matriz simétrica definida positiva contendo os produtos escalares entre todos os pares de vetores, essencial para métodos de kernel e decomposição em valores singulares.
Kernel PCA
Extensão não linear da ACP que utiliza funções kernel para mapear implicitamente os dados em um espaço de dimensão superior antes de aplicar a ACP linear.
Diffusion Maps
Método de redução de dimensionalidade baseado em processos de difusão que captura a geometria intrínseca dos dados construindo um grafo de transição markoviano.
SVD Truncado
Variante da decomposição em valores singulares que mantém apenas os k maiores valores singulares e vetores correspondentes, otimizada para matrizes esparsas e grandes.
Aprendizado de Variedades
Conjunto de técnicas não lineares que assumem que os dados de alta dimensão residem em uma variedade de dimensão inferior, buscando descobrir essa estrutura subjacente.