🏠 Início
Avaliações
📊 Todos os Benchmarks 🦖 Dinossauro v1 🦖 Dinossauro v2 ✅ Aplicações To-Do List 🎨 Páginas Livres Criativas 🎯 FSACB - Showcase Definitivo 🌍 Benchmark de Tradução
Modelos
🏆 Top 10 Modelos 🆓 Modelos Gratuitos 📋 Todos os Modelos ⚙️ Kilo Code
Recursos
💬 Biblioteca de Prompts 📖 Glossário de IA 🔗 Links Úteis

Glossário IA

O dicionário completo da Inteligência Artificial

242
categorias
3.306
subcategorias
39.932
termos
📖
termos

Âncora (Anchors)

Um método que identifica regras decisionais simples e suficientes (âncoras) que explicam com alta fidelidade a previsão de um modelo para uma dada instância.

📖
termos

Valor de Shapley

Um conceito da teoria dos jogos que mede a contribuição marginal média de um jogador (característica) através de todas as coalizões possíveis, servindo de base para SHAP.

📖
termos

Perturbação de Entrada

O processo de criar ligeiras variações nos dados de entrada para observar o efeito na previsão do modelo, utilizado por métodos como LIME para construir uma vizinhança local.

📖
termos

Fidelidade

Uma métrica que avalia quão fielmente uma explicação local (como o modelo simples de LIME) imita o comportamento do modelo complexo na sua vizinhança.

📖
termos

Explicação Agnosticismo ao Modelo

Uma abordagem de interpretabilidade que trata o modelo preditivo como uma caixa preta, interagindo apenas com as suas entradas e saídas para gerar explicações.

📖
termos

Mapa de Saliência (Saliency Map)

Uma visualização que destaca os pixels ou características de uma entrada que mais influenciaram a previsão de um modelo, frequentemente obtida pelo cálculo do gradiente.

📖
termos

Vizinhança Kernel

No LIME, uma função que define a proximidade entre a instância original e as instâncias perturbadas, ponderando a sua influência no modelo de explicação local.

📖
termos

Regra de Explicação (Explanation Rule)

Uma condição lógica simples (ex: SE característica_A > X E característica_B < Y) que captura a razão principal de uma previsão específica, típica de métodos como Anchors.

📖
termos

Interpretabilidade Pós-hoc

A análise de um modelo após seu treinamento para entender suas decisões, em oposição aos modelos intrinsecamente interpretáveis.

📖
termos

SHAP Kernel Explainer

Uma implementação de SHAP que usa ponderação do tipo kernel para estimar os valores de Shapley, tornando-a agnóstica ao modelo, mas potencialmente mais lenta.

📖
termos

SHAP Tree Explainer

Um algoritmo SHAP otimizado que calcula os valores exatos de Shapley para modelos baseados em árvores (como XGBoost, LightGBM) de forma muito eficiente.

📖
termos

Explicação Local por Surrogado

O princípio fundamental do LIME, que consiste em treinar um modelo simples e interpretável (surrogado) para aproximar o comportamento do modelo complexo localmente.

🔍

Nenhum resultado encontrado