Glossário IA
O dicionário completo da Inteligência Artificial
Fidelidade (Faithfulness)
Medida em que uma explicação reflete fielmente o raciocínio interno do modelo, avaliando se as previsões da explicação correspondem às do modelo em dados perturbados.
Compreensibilidade (Comprehensibility)
Medida subjetiva ou objetiva da facilidade com que um humano pode compreender uma explicação, frequentemente ligada à complexidade do modelo de explicação (ex: número de regras, profundidade de uma árvore).
Suficiência (Sufficiency)
Capacidade de um subconjunto de características, identificado por uma explicação, de manter a previsão original do modelo, indicando que essas características são suficientes para justificar a decisão.
Necessidade (Necessity)
Avalia se a ausência de uma característica (ou de um conjunto de características) identificada como importante pela explicação altera significativamente a previsão do modelo.
Pontuação de Inferência Causal (CIS)
Métrica que quantifica a capacidade de uma explicação para identificar relações causais reais em vez de simples correlações, testando os efeitos de intervenções nas variáveis.
Robustez da Explicação (Explanation Robustness)
Mede a variação das explicações quando o modelo ou os dados de entrada sofrem ataques adversários ou ruído, avaliando a resistência da interpretação à manipulação.
Coerência das Características (Feature Coherence)
Avalia se as características consideradas importantes por uma explicação são semanticamente ou logicamente coerentes entre si, reforçando a plausibilidade da explicação global.
Taxa de Seletividade (Selectivity Rate)
Indicador que mede a proporção de características ou regras utilizadas por uma explicação em relação ao número total disponível, favorecendo explicações parcimoniosas.
Função de Relevância (Relevance Function)
Função matemática que quantifica a contribuição de uma característica ou de um conjunto de características para a previsão final do modelo, servindo de base para muitas métricas de interpretabilidade.
Acordo Inter-Avaliadores (Inter-Annotator Agreement)
Medida estatística (ex: pontuação Kappa de Cohen) que avalia o nível de consenso entre diferentes especialistas humanos sobre a qualidade ou a exatidão de uma explicação, validando sua subjetividade.
Viés de Confirmação (Confirmation Bias)
Métrica que avalia se uma explicação reforça apenas as crenças preexistentes do usuário sem questionar o modelo, medindo o risco de interpretações falaciosas.
Poder Discriminante (Discriminative Power)
Capacidade de uma explicação de distinguir claramente as características que influenciam positivamente a previsão daquelas que a influenciam negativamente, melhorando a clareza da interpretação.
Fidelidade Global (Global Fidelity)
Avalia a capacidade de uma explicação de representar fielmente o comportamento global do modelo em todo o espaço dos dados, muitas vezes em detrimento da precisão local.
Pontuação Contrafactual (Counterfactual Score)
Métrica que avalia a qualidade de uma explicação contrafactual em função da perturbação mínima necessária para mudar a previsão do modelo e da plausibilidade do cenário gerado.
Profundidade Semântica (Semantic Depth)
Mede o nível de abstração de uma explicação, quantificando se ela se baseia em características de baixo nível (pixels) ou em conceitos de alto nível (objetos, ideias) mais inteligíveis.