Glosario IA
El diccionario completo de la Inteligencia Artificial
SHAP para Series Temporales (Temporal SHAP)
Adaptación del método SHAP (SHapley Additive exPlanations) que tiene en cuenta la dependencia temporal de las observaciones para atribuir la importancia de cada paso de tiempo a la predicción final.
Atribución LSTM
Técnica de interpretabilidad específica para redes neuronales recurrentes tipo LSTM, que cuantifica la contribución de cada estado oculto o celda de memoria a la salida del modelo.
Perturbación Temporal Guiada (Guided Temporal Perturbation)
Enfoque de interpretabilidad que modifica sistemáticamente segmentos de la serie temporal para observar el impacto en la predicción, utilizando heurísticas para dirigirse a los períodos más influyentes.
Mapa de Saliencia Secuencial (Sequential Saliency Map)
Generación de mapas de saliencia adaptados a datos secuenciales, donde cada punto de la secuencia recibe una puntuación de importancia basada en el gradiente de la salida con respecto a la entrada en ese momento preciso.
Gradientes Integrados Temporales (Temporal Integrated Gradients)
Extensión del método Integrated Gradients que integra los gradientes a lo largo de un camino en el espacio de series temporales, a menudo partiendo de una secuencia base (ej: ceros o una secuencia promedio).
Explicabilidad por Contrafactual Temporal (Temporal Counterfactual Explanation)
Generación de una secuencia temporal alternativa mínima que habría llevado a una predicción diferente, permitiendo comprender las condiciones críticas para la decisión del modelo.
Descomposición por Funcional Aditivo (Functional ANOVA)
Método estadístico que descompone la función de predicción de un modelo temporal en efectos principales (períodos individuales) y efectos de interacción (períodos combinados) para cuantificar su influencia.
Interpretabilidad basada en Ondículas (Wavelet-based Interpretability)
Uso de la transformada de ondículas para descomponer la serie temporal en diferentes frecuencias y localizar los patrones que más influyen en la predicción del modelo.
Reglas de Asociación Temporal (Temporal Association Rules)
Extracción de reglas de tipo 'si el patrón A ocurre en un tiempo t, entonces predicción B' para explicar el comportamiento del modelo en términos de patrones temporales comprensibles.
LIME para Series Temporelles (Time-LIME)
Adaptación de LIME (Local Interpretable Model-agnostic Explanations) que muestrea segmentos de la serie temporal para crear un modelo lineal local que explica la predicción en un punto dado.
Perfil de Influencia Temporal (Temporal Influence Profile)
Representación gráfica del impacto de cada paso de tiempo pasado en la predicción actual, revelando la memoria o el horizonte relevante del modelo para una tarea específica.
Análisis de Sensibilidad Causal (Causal Sensitivity Analysis)
Evaluación de la sensibilidad del modelo a intervenciones causales sobre la serie temporal, distinguiendo la correlación de la causalidad para una interpretación más robusta.
Explicación por Prototipo Temporal (Temporal Prototype Explanation)
Método que identifica las secuencias temporales prototipo (las más representativas) de una clase de predicción y explica una nueva predicción por su similitud con estos prototipos.
Descomposición del Error Temporal (Temporal Error Decomposition)
Técnica que disocia el error de predicción del modelo en componentes relacionadas con fases específicas de la serie temporal (ej: ruido, tendencia, estacionalidad) para apuntar a los puntos débiles.
Interpretación por Modelo Sustituto Temporal (Temporal Surrogate Model)
Entrenamiento de un modelo simple e interpretable (ej: ARIMA, regresión lineal) para aproximar localmente el comportamiento de un modelo complejo (ej: red neuronal) en una ventana temporal dada.
Visualización de Estado Oculto RNN (RNN Hidden State Visualization)
Conjunto de técnicas (ej: PCA, t-SNE) aplicadas a los vectores de estado oculto de las RNN para visualizar la dinámica interna del modelo e identificar las fases de aprendizaje de patrones temporales.