Glosario IA
El diccionario completo de la Inteligencia Artificial
Anclas (Anchors)
Un método de explicación local que proporciona reglas de decisión simples y suficientes (anclas) que garantizan probabilísticamente la misma predicción para un vecindario de la observación, ofreciendo una interpretación más estable que LIME.
Valores de Shapley
El concepto teórico fundamental de SHAP, que representa la contribución marginal promedio de una característica a través de todas las coaliciones posibles de características en un modelo, asegurando una distribución justa de la importancia.
Explicación por Sustituto Local
Un enfoque que entrena un modelo simple e interpretable (como un árbol de decisión o una regresión lineal) para aproximar el comportamiento de un modelo complejo únicamente en el vecindario restringido de una predicción específica.
Vecindario de la Observación
El espacio de datos definido alrededor de una observación específica, utilizado por los métodos de interpretación local para generar variaciones y aproximar el comportamiento del modelo en esta región restringida.
Fidelidad Local (Local Fidelity)
Una métrica que evalúa la precisión con la que una explicación local (como un modelo sustituto) reproduce las predicciones del modelo original en el vecindario de la observación explicada.
TreeSHAP
Una variante del algoritmo SHAP optimizada para modelos basados en árboles de decisión, capaz de calcular los valores de Shapley exactos de manera mucho más rápida aprovechando la estructura intrínseca de estos modelos.
KernelSHAP
Una implementación de SHAP que utiliza una función de ponderación (núcleo) para estimar los valores de Shapley de manera aproximada, haciéndola aplicable a cualquier modelo de manera agnóstica pero con un costo computacional más elevado.
DeepSHAP
Una adaptación de SHAP específicamente diseñada para modelos de aprendizaje profundo, que combina los valores de Shapley con técnicas de propagación hacia atrás (backpropagation) para calcular eficientemente las atribuciones de características.
Explicación Ad-Hoc
Una explicación local generada específicamente para una instancia única, sin pretender una generalización, a diferencia de las explicaciones globales que buscan describir el comportamiento global del modelo.
Influencia de la Característica Local
La medida del impacto de una característica específica en la predicción de una sola observación, cuantificando cómo la variación de esta característica modificaría el resultado del modelo para este caso preciso.
Diagnóstico de Predicción Individual
El proceso completo de análisis de una predicción única utilizando diversos métodos locales (LIME, SHAP, contrafactuales) para comprender los mecanismos subyacentes, validar la decisión e identificar posibles sesgos.
Estabilidad de la Explicación Local
La propiedad de un método de interpretación local de producir explicaciones consistentes para observaciones muy similares, un desafío crítico para la confianza y fiabilidad de los diagnósticos individuales.
Gradiente Integrado (Integrated Gradients)
Un método de atribución local para modelos diferenciables que calcula la importancia de una característica integrando el gradiente de la salida con respecto a esa característica a lo largo de un camino desde una línea base hasta la entrada.
Línea Base (Baseline)
Un punto de referencia (a menudo un vector nulo o una instancia promedio) utilizado en métodos de atribución como los gradientes integrados para medir la contribución de una característica en relación con un estado neutro o esperado.