Glosario IA
El diccionario completo de la Inteligencia Artificial
Intensidad de la interacción de características
Métrica que cuantifica la intensidad de los efectos de interacción entre dos o más características en un modelo predictivo. La interacción se mide por la diferencia entre el efecto combinado y la suma de los efectos individuales de las características.
Estadística H de Friedman
Medida cuantitativa de la interacción entre características basada en la varianza parcial de las predicciones del modelo. La estadística H varía de 0 (sin interacción) a 1 (interacción fuerte) y puede calcularse para interacciones por pares o de orden superior.
Métrica de estabilidad
Indicador que mide la coherencia de las explicaciones generadas por un método de interpretación ante ligeras variaciones en los datos de entrada. Una buena estabilidad garantiza que las explicaciones no varíen de manera errática para instancias similares.
Índice de comprensibilidad
Puntuación compuesta que evalúa la facilidad con la que un humano puede comprender una explicación o un modelo, basada en factores como la complejidad sintáctica, el tamaño del vocabulario y la estructura lógica. Este índice combina métricas objetivas y subjetivas de legibilidad.
Compromiso entre interpretabilidad y precisión
Relación inversa entre la capacidad de un modelo para ser interpretado por un humano y su rendimiento predictivo bruto. Este compromiso se cuantifica mediante diversas métricas que permiten encontrar un equilibrio óptimo según los requisitos del dominio de aplicación.
Puntuación de explicabilidad post-hoc
Evaluación cuantitativa de la calidad de las explicaciones generadas después del entrenamiento del modelo, combinando fidelidad, estabilidad y comprensibilidad. Esta puntuación compuesta permite comparar diferentes técnicas de explicación en un mismo modelo.
Medida de interpretabilidad intrínseca
Métrica que evalúa el grado de interpretabilidad inherente de un modelo basándose en su estructura algorítmica en lugar de en explicaciones externas. Esta medida considera factores como la linealidad, la monotonía y la parsimonia del modelo.
Métrica de fidelidad local
Indicador que mide la precisión de una explicación local en su capacidad para representar fielmente el comportamiento del modelo en el vecindario inmediato de una instancia. Esta métrica evalúa la validez de las aproximaciones locales utilizadas en métodos como LIME o Anchors.
Cobertura de la explicación
Proporción del conjunto de datos para el cual un método de explicación puede generar interpretaciones válidas y coherentes. La cobertura mide la capacidad de generalización de una técnica de interpretación y su aplicabilidad a diferentes regiones del espacio de características.
Puntuación de interpretabilidad basada en reglas
Métrica específica para los modelos basados en reglas que evalúa la calidad de las explicaciones según el número de reglas, su longitud media y su superposición. Esta puntuación favorece los conjuntos de reglas concisos, no redundantes y fácilmente comprensibles.
Medida de consistencia
Indicador que evalúa si se generan explicaciones similares para instancias con predicciones idénticas o similares. La consistencia es crucial para mantener la confianza en las explicaciones a través de diferentes regiones del espacio de decisión.