Glosario IA
El diccionario completo de la Inteligencia Artificial
Componentes principales
Nuevas variables ortogonales obtenidas por transformación lineal de las variables originales, capturando sucesivamente la máxima varianza residual en los datos.
Vectores propios
Direcciones en el espacio de los datos que corresponden a los ejes de varianza máxima, definiendo la orientación de las componentes principales en la transformación PCA.
Valores propios
Cantidades escalares que representan la magnitud de la varianza explicada por cada componente principal, sirviendo para ponderar la importancia relativa de cada eje.
Matriz de covarianza
Matriz cuadrada simétrica que describe las relaciones de dependencia lineal entre las variables, fundamental para la extracción de las componentes principales.
Reducción dimensional
Proceso de proyección de datos desde un espacio de alta dimensión hacia un espacio de dimensión inferior, preservando la información esencial.
Proyección ortogonal
Transformación geométrica donde cada punto se proyecta perpendicularmente sobre las nuevas componentes, garantizando la independencia entre los ejes resultantes.
Inercia
Medida de la dispersión total de los datos alrededor de su centro de gravedad, equivalente a la suma de las varianzas de todas las variables originales.
Puntuación factorial
Coordenadas de las observaciones individuales en el nuevo sistema de referencia definido por las componentes principales, permitiendo su posicionamiento en el espacio reducido.
Carga factorial
Coeficientes de correlación entre las variables originales y las componentes principales, indicando la contribución de cada variable a la formación de los ejes.
ACP centrada reducida
Variante del ACP donde los datos primero se estandarizan (media nula y desviación estándar unitaria) antes del análisis, eliminando el efecto de escala entre variables.
Criterio de Kaiser
Regla de decisión que conserva únicamente las componentes con valores propios superiores a 1, basada en la comparación con la varianza de una variable estandarizada.
Diagrama de codo de valores propios
Gráfico que visualiza la disminución de los valores propios ordenados, ayudando a determinar el número óptimo de componentes a retener.
Reconstrucción de datos
Proceso inverso del PCA utilizando las componentes principales y vectores propios para aproximar los datos originales en su espacio inicial.
Matriz de correlación
Matriz normalizada de covarianzas donde cada elemento representa el coeficiente de correlación entre dos variables, utilizada en el ACP centrada reducida.
Eje principal
Primera componente principal que captura la dirección de varianza máxima en los datos, sirviendo como referencia para los ejes subsiguientes ortogonales.
Porcentaje de inercia
Ratio que expresa la proporción de varianza total explicada por cada componente principal, esencial para evaluar la calidad de la reducción dimensional.
Matriz de transformación
Matriz que contiene los vectores propios como columnas, permitiendo la conversión lineal de los datos del espacio original hacia el espacio de componentes principales.
Ortogonalidad
Propiedad matemática que garantiza que las componentes principales son estadísticamente independientes (covarianza nula), eliminando la redundancia de información.
Círculo de correlación
Herramienta de visualización gráfica que representa las correlaciones entre variables originales y componentes principales en un plano factorial dado.
Varianza residual
Parte de la varianza total no explicada por las componentes principales retenidas, cuantificando la pérdida de información debida a la reducción dimensional.