Glosario IA
El diccionario completo de la Inteligencia Artificial
Fidelidad de la explicación
Medida que cuantifica la correspondencia entre las predicciones del modelo negro y las del modelo interpretable utilizado para generar las explicaciones. Una fidelidad elevada indica que la explicación representa fielmente el comportamiento del modelo original en la región local considerada.
Estabilidad de las explicaciones
Indicador que evalúa la coherencia de las explicaciones generadas para instancias similares o para la misma instancia con ligeras variaciones. La estabilidad garantiza que las explicaciones no varíen de manera errática frente a cambios mínimos de los datos de entrada.
Completitud explicativa
Métrica que mide la capacidad de una explicación para capturar todos los factores relevantes que influyen en la decisión del modelo. Una explicación completa debe integrar el conjunto de características significativas sin omitir elementos cruciales.
Pertinencia semántica
Evaluación de la coherencia entre la explicación generada y los conocimientos del dominio o el razonamiento humano esperado. Esta métrica cuantifica si las explicaciones producidas están alineadas con la lógica e intuición de los expertos del dominio.
Compacidad de la explicación
Medida de la concisión de una explicación, evaluando la relación entre la cantidad de información proporcionada y su complejidad estructural. Una explicación compacta privilegia los elementos más relevantes minimizando la redundancia informativa.
Robustez explicativa
Capacidad de una explicación para mantener su validez frente a perturbaciones o ataques adversarios sobre los datos de entrada. Esta métrica evalúa la resistencia de las explicaciones a manipulaciones malintencionadas que buscan inducir a error.
Fineza granular
Nivel de detalle en el que opera una explicación, desde explicaciones globales (modelo completo) hasta explicaciones locales (instancia específica). La fineza granular determina la precisión y especificidad de la interpretación proporcionada.
Consistencia inter-explicaciones
Medida que evalúa la coherencia lógica entre diferentes explicaciones generadas para instancias variadas pero semánticamente cercanas. Esta métrica asegura que las explicaciones sigan patrones razonables y no contradictorios.
Usabilidad percibida
Indicador cualitativo que mide la facilidad con la que los usuarios pueden comprender, interpretar y aplicar las explicaciones generadas. La usabilidad percibida evalúa la adecuación entre la complejidad técnica de la explicación y las capacidades cognitivas del usuario.
Verificabilidad explicativa
Capacidad de confirmar o refutar de manera independiente la validez de las explicaciones proporcionadas por el modelo. La verificabilidad permite a los usuarios validar la coherencia de las explicaciones con respecto a conocimientos externos o pruebas empíricas.
Brecha explicativa
Diferencia cuantitativa entre la complejidad inherente del modelo y la simplicidad de su explicación. Una brecha elevada puede indicar una pérdida significativa de información durante el proceso de simplificación explicativa.
Especificidad causal
Medida que evalúa si una explicación identifica correctamente las relaciones de causa-efecto en lugar de simples correlaciones. La especificidad causal distingue los factores que realmente influyen en la decisión de aquellos que simplemente co-ocurren.
Generalización explicativa
Capacidad de una explicación local para aplicarse de manera coherente a otras instancias similares del conjunto de datos. Esta métrica evalúa si los patrones explicativos identificados pueden extrapolarse más allá del caso específico estudiado.
Confianza explicativa
Nivel de certeza cuantificado asociado a una explicación, que indica la probabilidad de que la explicación sea correcta. La confianza explicativa permite a los usuarios evaluar la fiabilidad de las interpretaciones proporcionadas por el sistema.
Equidad explicativa
Métrica que evalúa si las explicaciones generadas tratan de manera justa a diferentes grupos demográficos o subpoblaciones. La equidad explicativa garantiza la ausencia de sesgos discriminatorios en la forma en que se justifican las decisiones.
Cobertura explicativa
Proporción del espacio de características o instancias para las cuales el modelo puede generar explicaciones válidas. Una cobertura elevada asegura que el sistema de explicación puede operar en la mayoría de los casos encontrados en la práctica.
Latencia explicativa
Tiempo computacional requerido para generar una explicación después de que el modelo haya producido su predicción. Esta métrica es crucial para aplicaciones en tiempo real donde las explicaciones deben proporcionarse rápidamente.
Fidelidad contrafactual
Medida específica que evalúa la calidad de las explicaciones contrafactuales en términos de minimalidad de los cambios requeridos y plausibilidad de los escenarios generados. Esta métrica asegura que los contrafactuales propuestos sean realistas y accionables.