Glossário IA
O dicionário completo da Inteligência Artificial
Saliência Temporal
Técnica que identifica os momentos ou intervalos de tempo mais influentes em uma série temporal, perturbando os dados de entrada e medindo o impacto na saída do modelo.
Retropropagação Guiada Temporal
Método de interpretabilidade que adapta a retropropagação guiada a redes neurais recorrentes para visualizar as características temporais que mais ativam os neurônios.
LIME para Séries Temporais
Adaptação do algoritmo LIME (Local Interpretable Model-agnostic Explanations) que gera explicações locais criando segmentos perturbados da série temporal para formar um modelo interpretável simples.
SHAP Temporal
Extensão dos valores de SHapley Additive exPlanations para dados sequenciais, atribuindo uma contribuição a cada passo de tempo ou a cada característica em cada instante para explicar a previsão global.
Mascaramento de Intervalo Temporal
Abordagem de interpretabilidade que mascara ou substitui segmentos inteiros da série temporal para avaliar sua importância coletiva na decisão do modelo, ao contrário da saliência que se concentra em pontos individuais.
Regras de Evolução Temporal
Método que extrai regras lógicas descrevendo como estados ou padrões evoluem no tempo para levar a uma previsão específica, tornando explícito o raciocínio sequencial do modelo.
Análise de Trajetória no Espaço Latente
Técnica que visualiza e interpreta o caminho percorrido por uma sequência de dados no espaço latente de um modelo (como um autoencoder) para compreender sua dinâmica e classificação.
Relevância Temporal por Decomposição em Wavelets
Método que decompõe a série temporal em diferentes frequências e escalas temporais via wavelets, e então avalia a relevância de cada componente para a previsão do modelo.
Explicações Contrafactuais Temporais
Geração de séries temporais minimamente modificadas que alteram a previsão do modelo, permitindo compreender as condições temporais críticas que teriam levado a um resultado diferente.
Mapa de Calor Dinâmico
Visualização de interpretabilidade que exibe a importância das características (ou pixels em um vídeo) de forma evolutiva ao longo do tempo, mostrando como o foco do modelo muda.
Interpretabilidade por Agregação de Features Temporais
Abordagem que explica as previsões com base em características temporais agregadas (média móvel, variância, etc.) em vez de pontos de dados brutos, oferecendo uma visão mais macroscópica.
Decomposição da Influência por Passo de Tempo
Método que isola a contribuição de cada passo de tempo individual para a previsão final, frequentemente usando técnicas de denoising ou analisando gradientes através de etapas recorrentes.
Análise da Importância das Dependências de Longo Prazo
Conjunto de técnicas que visam quantificar e visualizar como eventos distantes no passado influenciam a previsão atual, um desafio chave para modelos como LSTMs ou Transformers.
Explicações Causais Temporais
Metodologia que vai além da correlação para identificar relações de causa e efeito em dados sequenciais que são exploradas pelo modelo, usando modelos de causalidade como grafos acíclicos causais temporais.