Glossário IA
O dicionário completo da Inteligência Artificial
Força de Interação de Características
Métrica que quantifica a intensidade dos efeitos de interação entre duas ou mais características em um modelo preditivo. A interação é medida pela diferença entre o efeito combinado e a soma dos efeitos individuais das características.
H-estatística de Friedman
Medida quantitativa da interação entre características baseada na variância parcial das previsões do modelo. A H-estatística varia de 0 (sem interação) a 1 (interação forte) e pode ser calculada para interações de pares ou de ordem superior.
Métrica de Estabilidade
Indicador que mede a consistência das explicações geradas por um método de interpretação diante de pequenas variações nos dados de entrada. Uma boa estabilidade garante que as explicações não variem erraticamente para instâncias semelhantes.
Índice de Compreensibilidade
Pontuação composta que avalia a facilidade com que um humano pode compreender uma explicação ou um modelo, baseada em fatores como complexidade sintática, tamanho do vocabulário e estrutura lógica. Este índice combina métricas objetivas e subjetivas de legibilidade.
Compromisso entre Interpretabilidade e Precisão
Relação inversa entre a capacidade de um modelo ser interpretado por um humano e seu desempenho preditivo bruto. Este compromisso é quantificado por várias métricas que permitem encontrar um equilíbrio ótimo de acordo com os requisitos do domínio de aplicação.
Pontuação de Explicabilidade Post-hoc
Avaliação quantitativa da qualidade das explicações geradas após o treinamento do modelo, combinando fidelidade, estabilidade e compreensibilidade. Esta pontuação composta permite comparar diferentes técnicas de explicação em um mesmo modelo.
Medida de Interpretabilidade Intrínseca
Métrica que avalia o grau de interpretabilidade inerente de um modelo baseada em sua estrutura algorítmica, em vez de explicações externas. Esta medida considera fatores como a linearidade, a monotonicidade e a parcimônia do modelo.
Métrica de Fidelidade Local
Indicador que mede a precisão de uma explicação local em sua capacidade de representar fielmente o comportamento do modelo na vizinhança imediata de uma instância. Esta métrica avalia a validade das aproximações locais usadas em métodos como LIME ou Anchors.
Cobertura da Explicação
Proporção do conjunto de dados para a qual um método de explicação pode gerar interpretações válidas e consistentes. A cobertura mede a generalização de uma técnica de interpretação e sua aplicabilidade a diferentes regiões do espaço de características.
Pontuação de Interpretabilidade Baseada em Regras
Métrica específica para modelos baseados em regras que avalia a qualidade das explicações de acordo com o número de regras, seu comprimento médio e sua sobreposição. Esta pontuação favorece conjuntos de regras concisos, não redundantes e facilmente compreensíveis.
Medida de Consistência
Indicador que avalia se explicações semelhantes são geradas para instâncias com previsões idênticas ou semelhantes. A consistência é crucial para manter a confiança nas explicações em diferentes regiões do espaço de decisão.