Glossário IA
O dicionário completo da Inteligência Artificial
Âncora (Anchors)
Um método que identifica regras decisionais simples e suficientes (âncoras) que explicam com alta fidelidade a previsão de um modelo para uma dada instância.
Valor de Shapley
Um conceito da teoria dos jogos que mede a contribuição marginal média de um jogador (característica) através de todas as coalizões possíveis, servindo de base para SHAP.
Perturbação de Entrada
O processo de criar ligeiras variações nos dados de entrada para observar o efeito na previsão do modelo, utilizado por métodos como LIME para construir uma vizinhança local.
Fidelidade
Uma métrica que avalia quão fielmente uma explicação local (como o modelo simples de LIME) imita o comportamento do modelo complexo na sua vizinhança.
Explicação Agnosticismo ao Modelo
Uma abordagem de interpretabilidade que trata o modelo preditivo como uma caixa preta, interagindo apenas com as suas entradas e saídas para gerar explicações.
Mapa de Saliência (Saliency Map)
Uma visualização que destaca os pixels ou características de uma entrada que mais influenciaram a previsão de um modelo, frequentemente obtida pelo cálculo do gradiente.
Vizinhança Kernel
No LIME, uma função que define a proximidade entre a instância original e as instâncias perturbadas, ponderando a sua influência no modelo de explicação local.
Regra de Explicação (Explanation Rule)
Uma condição lógica simples (ex: SE característica_A > X E característica_B < Y) que captura a razão principal de uma previsão específica, típica de métodos como Anchors.
Interpretabilidade Pós-hoc
A análise de um modelo após seu treinamento para entender suas decisões, em oposição aos modelos intrinsecamente interpretáveis.
SHAP Kernel Explainer
Uma implementação de SHAP que usa ponderação do tipo kernel para estimar os valores de Shapley, tornando-a agnóstica ao modelo, mas potencialmente mais lenta.
SHAP Tree Explainer
Um algoritmo SHAP otimizado que calcula os valores exatos de Shapley para modelos baseados em árvores (como XGBoost, LightGBM) de forma muito eficiente.
Explicação Local por Surrogado
O princípio fundamental do LIME, que consiste em treinar um modelo simples e interpretável (surrogado) para aproximar o comportamento do modelo complexo localmente.