Glosario IA
El diccionario completo de la Inteligencia Artificial
Factorización de Matrices
Técnica algebraica que descompone una matriz usuario-ítem en producto de dos matrices de menor rango para revelar las características latentes de las preferencias.
Descomposición en Valores Singulares (SVD)
Método de factorización que descompone una matriz M en UΣV' donde U y V son ortogonales y Σ es diagonal, permitiendo la reducción dimensional óptima.
Factores Latentes
Variables ocultas no observables que representan las características intrínsecas de los usuarios y los ítems, aprendidas automáticamente durante la factorización.
Descenso de Gradiente Estocástico (SGD)
Algoritmo de optimización iterativo que actualiza los parámetros de factorización utilizando una muestra aleatoria en cada iteración para minimizar el error de predicción.
Aprendizaje Alternado de Mínimos Cuadrados (ALS)
Método de optimización que alterna fijar una matriz de factores para resolver analíticamente la otra, garantizando la convergencia hacia un óptimo local.
Regularización
Técnica que previene el sobreajuste agregando una penalización sobre la magnitud de los parámetros, favoreciendo soluciones más generales y robustas.
Vectorización
Proceso de representación de las entidades (usuarios/ítems) como vectores densos en un espacio latente de dimensión reducida.
Factorización de Matriz No Negativa (NMF)
Variante de factorización que obliga a todas las matrices resultantes a contener solo valores no negativos, mejorando la interpretabilidad de los factores.
Sesgo de Usuario y de Ítem
Términos adicionales que capturan las tendencias sistemáticas de los usuarios (tendencias generales a calificar alto/bajo) y de los ítems (popularidad intrínseca).
Aprendizaje por Pares
Enfoque que optimiza directamente la clasificación relativa de los ítems considerando los pares (ítem positivo, ítem negativo) en lugar de las calificaciones absolutas.
Problema de Arranque en Frío
Desafío mayor donde la factorización falla en generar recomendaciones confiables para nuevos usuarios o ítems que carecen de historial de interacciones.
Factorización Tensorial
Extensión multidimensional de la factorización matricial que permite modelar simultáneamente múltiples dimensiones (usuario, ítem, contexto, tiempo).
Aprendizaje Profundo para la Factorización
Integración de redes neuronales para capturar relaciones no lineales complejas entre los factores latentes, mejorando la precisión de las recomendaciones.
Función de Pérdida
Medida que cuantifica la diferencia entre las predicciones del modelo factorizado y los valores reales, sirviendo como objetivo a minimizar durante el entrenamiento.
Tasa de Aprendizaje
Hiperparámetro que controla la magnitud de las actualizaciones de los parámetros durante la optimización, influyendo en la velocidad y estabilidad de convergencia.
Incrustación Híbrida
Combinación de factorización matricial con incrustaciones basadas en contenido, fusionando los enfoques colaborativo y basado en contenido.