Glosario IA
El diccionario completo de la Inteligencia Artificial
Estabilidad (Stability)
Medida de la coherencia de las explicaciones generadas para instancias similares o para la misma instancia con ligeras variaciones de datos. Una baja estabilidad puede indicar una explicación no robusta o un modelo inestable.
Infidelidad (Infidelity)
Métrica que cuantifica la desviación entre el gradiente del modelo de explicación y el gradiente del modelo de caja negra. Mide la capacidad de una explicación para capturar correctamente la sensibilidad del modelo a las variaciones de entrada.
Complejidad de la explicación (Explanation Complexity)
Medida de la simplicidad o concisión de una explicación, a menudo evaluada por el número de reglas, características o términos no nulos. Una baja complejidad favorece una mejor comprensión humana.
Puntuación de Robustez (Robustness Score)
Evaluación cuantitativa de la variación de las explicaciones frente a perturbaciones adversas en los datos de entrada. Una puntuación alta significa que las explicaciones resisten bien los ataques y el ruido.
Área bajo la Curva de Fidelidad (AUC-Fidelity)
Métrica agregada que calcula el área bajo la curva de fidelidad en función del tamaño del vecindario o del número de características utilizadas. Permite comparar el rendimiento general de los métodos de explicación.
Brecha de Predicción Local (Local Prediction Gap)
Diferencia absoluta entre la predicción del modelo de caja negra y la del modelo de explicación para una instancia específica. Esta métrica evalúa la precisión de la aproximación local.
Tasa de Compresión (Compression Rate)
Relación entre el número de características en el modelo original y el número de características en la explicación simplificada. Cuantifica el grado de simplificación de la explicación en comparación con el modelo completo.
Coherencia de las Explicaciones (Explanation Coherence)
Medida de la coherencia lógica entre las explicaciones generadas para diferentes instancias de una misma clase o para instancias vecinas. Evalúa la coherencia general del sistema de explicación.
Función de Pérdida de Explicación (Explanation Loss Function)
Función objetivo matemática utilizada para optimizar los parámetros de un modelo de explicación. Generalmente equilibra la fidelidad al modelo original y la complejidad de la explicación.
Sensibilidad al Ruido (Noise Sensitivity)
Métrica que cuantifica la variación de las explicaciones cuando se añaden ruidos aleatorios a los datos de entrada. Una baja sensibilidad al ruido es deseable para explicaciones fiables.
Monotonía de la Explicación (Explanation Monotonicity)
Propiedad que mide si las importancias de las características en la explicación varían de manera consistente con los cambios monótonos de los valores de entrada. Asegura la coherencia direccional de las explicaciones.
Error de Reconstrucción (Reconstruction Error)
Métrica que evalúa la capacidad de una explicación para reconstruir el comportamiento del modelo original, a menudo medida por el error cuadrático medio entre las predicciones. Es crucial para los métodos basados en la destilación de modelo.
Índice de Selectividad (Selectivity Index)
Medida que cuantifica la capacidad de un método de explicación para centrarse en las características más relevantes para una predicción dada. Un índice elevado indica una mejor identificación de las variables clave.
Puntuación de Fidelidad Normalizada (Normalized Fidelity Score)
Métrica de fidelidad escalada entre 0 y 1 para facilitar la comparación entre diferentes modelos y métodos de explicación. Permite una evaluación estandarizada de la calidad de las explicaciones.
Protocolo de Evaluación por Eliminación de Características (Feature Ablation Evaluation Protocol)
Metodología sistemática que evalúa la calidad de una explicación midiendo el impacto en el rendimiento del modelo cuando las características identificadas como importantes son eliminadas o enmascaradas.
Métrica de Completitud (Completeness Metric)
Evaluación cuantitativa que mide si una explicación captura todos los factores relevantes que contribuyeron a una predicción específica. Se opone a las explicaciones parciales o incompletas.
Varianza de la Explicación (Explanation Variance)
Medida estadística de la dispersión de las explicaciones generadas en múltiples ejecuciones para la misma instancia. Una baja varianza es esencial para la reproducibilidad y fiabilidad de las explicaciones.