Glosario IA
El diccionario completo de la Inteligencia Artificial
Fidelidad (Faithfulness)
Medida en la que una explicación refleja fielmente el razonamiento interno del modelo, evaluando si las predicciones de la explicación coinciden con las del modelo sobre datos perturbados.
Comprensibilidad (Comprehensibility)
Medida subjetiva u objetiva de la facilidad con la que un humano puede entender una explicación, a menudo relacionada con la complejidad del modelo de explicación (ej: número de reglas, profundidad de un árbol).
Suficiencia (Sufficiency)
Capacidad de un subconjunto de características, identificado por una explicación, de mantener la predicción original del modelo, indicando que estas características son suficientes para justificar la decisión.
Necesidad (Necessity)
Evalúa si la ausencia de una característica (o de un conjunto de características) identificada como importante por la explicación cambia significativamente la predicción del modelo.
Puntuación de Inferencia Causal (CIS)
Métrica que cuantifica la capacidad de una explicación para identificar relaciones causales reales en lugar de simples correlaciones, probando los efectos de intervenciones sobre las variables.
Robustez de la Explicación (Explanation Robustness)
Mide la variación de las explicaciones cuando el modelo o los datos de entrada sufren ataques adversarios o ruido, evaluando la resistencia de la interpretación a la manipulación.
Coherencia de Características (Feature Coherence)
Evalúa si las características consideradas importantes por una explicación son semántica o lógicamente coherentes entre sí, reforzando la plausibilidad de la explicación global.
Tasa de Selectividad (Selectivity Rate)
Indicador que mide la proporción de características o reglas utilizadas por una explicación en relación con el número total disponible, favoreciendo las explicaciones parsimoniosas.
Función de Relevancia
Función matemática que cuantifica la contribución de una característica o de un conjunto de características a la predicción final del modelo, sirviendo como base para muchas métricas de interpretabilidad.
Acuerdo Inter-Evaluadores
Medida estadística (ej: puntuación Kappa de Cohen) que evalúa el nivel de consenso entre diferentes expertos humanos sobre la calidad o la corrección de una explicación, validando su subjetividad.
Sesgo de Confirmación
Métrica que evalúa si una explicación refuerza únicamente las creencias preexistentes del usuario sin cuestionar el modelo, midiendo el riesgo de interpretaciones falaces.
Poder Discriminante
Capacidad de una explicación para distinguir claramente las características que influyen positivamente en la predicción de aquellas que la influyen negativamente, mejorando la claridad de la interpretación.
Fidelidad Global
Evalúa la capacidad de una explicación para representar fielmente el comportamiento global del modelo sobre todo el espacio de datos, a menudo en detrimento de la precisión local.
Puntuación de Contrafactual
Métrica que evalúa la calidad de una explicación contrafactual en función de la perturbación mínima requerida para cambiar la predicción del modelo y de la plausibilidad del escenario generado.
Profundidad Semántica
Mide el nivel de abstracción de una explicación, cuantificando si se basa en características de bajo nivel (píxeles) o en conceptos de alto nivel (objetos, ideas) más inteligibles.