Glosario IA
El diccionario completo de la Inteligencia Artificial
Análisis de Componentes Principales
Método estadístico de reducción de dimensionalidad lineal que transforma variables correlacionadas en nuevas variables no correlacionadas llamadas componentes principales, maximizando la varianza explicada.
t-SNE
Algoritmo de reducción de dimensionalidad no lineal particularmente efectivo para la visualización de datos de alta dimensión preservando estructuras locales y similitudes entre puntos vecinos.
UMAP
Técnica de reducción de dimensionalidad no lineal basada en topología algebraica que preserva tanto la estructura local como global de los datos siendo más rápida que t-SNE.
Análisis de Componentes Independientes
Método de separación ciega de fuentes estadísticas que transforma los datos en componentes estadísticamente independientes, asumiendo que las señales fuente son no gaussianas.
Factorización de Matriz No Negativa
Algoritmo de reducción de dimensionalidad que descompone una matriz no negativa en dos matrices de rango inferior también no negativas, facilitando la interpretabilidad de los componentes.
Análisis Discriminante Lineal
Método supervisado de reducción de dimensionalidad que maximiza la separación entre clases mientras minimiza la varianza intra-clase, utilizado principalmente para clasificación.
Autoencoders Variacionales
Modelo generativo de aprendizaje profundo que aprende una representación latente probabilística de los datos usando redes neuronales codificador-decodificador con regularización variacional.
Isomap
Algoritmo de reducción de dimensionalidad no lineal que preserva las distancias geodésicas en la variedad de datos usando los caminos más cortos en el grafo de los vecinos más cercanos.
Locally Linear Embedding
Técnica no lineal que preserva las relaciones lineales locales entre puntos reconstruyendo cada punto como combinación lineal de sus vecinos más cercanos en el espacio de baja dimensión.
Análisis Factorial
Método estadístico exploratorio que identifica variables latentes no observadas (factores) que explican las correlaciones entre variables observadas en un conjunto de datos multivariados.
Matriz de Covarianza
Matriz cuadrada simétrica que cuantifica las covarianzas entre pares de variables, fundamental para comprender las relaciones lineales en los datos y calcular las componentes principales.
Valores Propios
Escalares asociados a los vectores propios de una transformación lineal, que representan la importancia relativa de cada componente principal en el análisis de componentes principales.
Vectores Propios
Direcciones en las que una transformación lineal actúa por simple dilatación, correspondientes a los ejes principales de variación máxima en el espacio de datos originales.
Matriz de Gram
Matriz simétrica definida positiva que contiene los productos escalares entre todos los pares de vectores, esencial para los métodos de kernel y la descomposición en valores singulares.
Kernel PCA
Extensión no lineal del ACP que utiliza funciones kernel para mapear implícitamente los datos en un espacio de mayor dimensión antes de aplicar el ACP lineal.
Diffusion Maps
Método de reducción de dimensionalidad basado en procesos de difusión que captura la geometría intrínseca de los datos construyendo un grafo de transición markoviano.
SVD Truncado
Variante de la descomposición en valores singulares que conserva solo los k valores singulares más grandes y sus vectores correspondientes, optimizada para matrices grandes y dispersas.
Aprendizaje de Variedades
Conjunto de técnicas no lineales que asumen que los datos de alta dimensión residen en una variedad de dimensión inferior, buscando descubrir esta estructura subyacente.