Glosario IA
El diccionario completo de la Inteligencia Artificial
Puntuación de fidelidad (Fidelity Score)
Métrica cuantitativa calculada como la diferencia de rendimiento entre el modelo original y el modelo aproximado (sustituto) en un conjunto de datos de prueba.
Robustez de la explicación
Capacidad de una explicación para resistir pequeñas perturbaciones en los datos de entrada o en el modelo, sin cambiar de manera significativa.
Error de predicción del modelo sustituto (Surrogate Model Error)
Diferencia entre las predicciones del modelo original y las de un modelo interpretable (sustituto) entrenado para imitar el comportamiento del primero.
R² de la explicación (Explanation R-squared)
Coeficiente de determinación que mide la proporción de la varianza de las predicciones del modelo original que es explicada por el modelo sustituto.
Fidelidad de clase (Class Fidelity)
Medida específica para los problemas de clasificación que evalúa si la explicación preserva la misma clase de predicción que el modelo original para una instancia dada.
Fidelidad de regresión (Regression Fidelity)
Para los modelos de regresión, evalúa la proximidad numérica entre la predicción del modelo original y la de la explicación, a menudo a través del error cuadrático medio.
Fidelidad local vs global (Local vs Global Fidelity)
Distinción entre la capacidad de una explicación para representar con precisión el modelo para una sola predicción (local) o para todo su espacio de predicción (global).
Complejidad-Fidelidad (Complexity-Fidelity Trade-off)
Análisis de la relación entre la complejidad de una explicación (ej: número de reglas) y su fidelidad, buscando un equilibrio óptimo entre interpretabilidad y precisión.
Fidelidad en contraejemplos (Fidelidad contrafactual)
Evalúa si una explicación contrafactual, que muestra cómo cambiar una predicción, permanece fiel al comportamiento del modelo en el vecindario de la instancia modificada.
Fidelidad de atribución de características (Fidelidad de atribución de características)
Para métodos como SHAP o LIME, mide si la suma de las importancias de las características se acerca a la diferencia entre la predicción y el valor base esperado.
Error de fidelidad normalizado (Error de fidelidad normalizado)
Versión del error de fidelidad escalada para permitir comparaciones justas entre diferentes modelos o conjuntos de datos.
Fidelidad de la explicación conceptual (Fidelidad conceptual)
Mide en qué medida una explicación basada en conceptos de alto nivel (ej: 'a rayas', 'pelo') captura fielmente el razonamiento del modelo.
Fidelidad de la explicación por reglas (Fidelidad de reglas)
Evalúa la precisión de un conjunto de reglas extraídas para explicar un modelo, midiendo la proporción de instancias donde las reglas y el modelo están de acuerdo.