Glosario IA
El diccionario completo de la Inteligencia Artificial
Anclaje (Anchors)
Un método que identifica reglas decisionales simples y suficientes (anclas) que explican con alta fidelidad la predicción de un modelo para una instancia dada.
Valor de Shapley
Un concepto de la teoría de juegos que mide la contribución marginal promedio de un jugador (característica) a través de todas las coaliciones posibles, sirviendo como base para SHAP.
Perturbación de entrada
El proceso de crear ligeras variaciones en los datos de entrada para observar el efecto en la predicción del modelo, utilizado por métodos como LIME para construir un vecindario local.
Fidelidad (Fidelity)
Una métrica que evalúa qué tan fielmente una explicación local (como el modelo simple de LIME) imita el comportamiento del modelo complejo en su vecindario.
Explicación Agnóstica al Modelo
Un enfoque de interpretabilidad que trata el modelo predictivo como una caja negra, interactuando solo con sus entradas y salidas para generar explicaciones.
Mapa de Saliencia (Saliency Map)
Una visualización que resalta los píxeles o características de una entrada que más influyeron en la predicción de un modelo, a menudo obtenida mediante cálculo de gradiente.
Vecindario Kernel
En LIME, una función que define la proximidad entre la instancia original y las instancias perturbadas, ponderando su influencia en el modelo de explicación local.
Regla de Explicación (Explanation Rule)
Una condición lógica simple (ej: IF feature_A > X AND feature_B < Y) que captura la razón principal de una predicción específica, típica de métodos como Anchors.
Interpretabilidad Post-hoc
El análisis de un modelo después de su entrenamiento para comprender sus decisiones, en oposición a los modelos intrínsecamente interpretables.
SHAP Kernel Explainer
Una implementación de SHAP que utiliza una ponderación de tipo kernel para estimar los valores de Shapley, haciéndola agnóstica al modelo pero potencialmente más lenta.
SHAP Tree Explainer
Un algoritmo SHAP optimizado que calcula los valores exactos de Shapley para los modelos basados en árboles (como XGBoost, LightGBM) de manera muy eficiente.
Explicación Local por Sustituto
El principio fundamental de LIME, consistente en entrenar un modelo simple e interpretable (sustituto) para aproximar el comportamiento del modelo complejo localmente.