Glossário IA
O dicionário completo da Inteligência Artificial
Erro Out-of-Bag
Erro de validação calculado sobre as observações não selecionadas durante uma amostragem bootstrap, constituindo uma estimativa não enviesada do erro de generalização do modelo. O erro OOB serve como alternativa à validação cruzada em métodos de ensemble como Random Forest.
Bootstrap Aggregating (Bagging)
Método de ensemble que treina múltiplos modelos em diferentes amostras bootstrap e combina suas previsões por voto majoritário ou média para reduzir a variância e melhorar a estabilidade preditiva. Bagging é particularmente eficaz para algoritmos instáveis como árvores de decisão.
Intervalo de Confiança Bootstrap
Intervalo de confiança estimado por reamostragem bootstrap para quantificar a incerteza dos parâmetros do modelo ou das métricas de desempenho. Vários métodos existem: percentil, BCa e intervalos bootstrap básicos.
Validação Jackknife
Técnica de reamostragem sistemática onde cada observação é omitida uma por vez para estimar o viés e a variância de um estimador, considerada como uma aproximação do bootstrap. O jackknife é menos custoso computacionalmente mas menos flexível que o bootstrap.
Validação por Permutação
Método de validação não paramétrico que avalia a significância estatística de um modelo permutando aleatoriamente os rótulos alvo para criar uma distribuição nula de desempenho. Esta técnica permite testar se o modelo aprende realmente padrões significativos.
Correção de Viés Bootstrap
Procedimento usando o bootstrap para estimar e corrigir o viés de um estimador ou de uma métrica de avaliação do modelo. Esta correção melhora a precisão das estimativas particularmente em amostras pequenas.
Bootstrap BCa (Bias-Corrected and Accelerated)
Método bootstrap avançado que ajusta os intervalos de confiança corrigindo o viés e a aceleração (assimetria) da distribuição bootstrap. BCa fornece intervalos mais precisos que o método percentil padrão.
Bootstrap Paramétrico
Variante do bootstrap onde as amostras são geradas a partir de uma distribuição paramétrica ajustada aos dados em vez de uma reamostragem direta. Este método é útil quando o modelo subjacente dos dados é conhecido ou assumido.
Bootstrap Não Paramétrico
Abordagem bootstrap clássica que reamostra diretamente com substituição a partir dos dados observados sem fazer suposições sobre a distribuição subjacente. Este método é mais flexível e robusto a violações de suposições distribucionais.
Distribuição de Amostragem Bootstrap
Distribuição empírica de uma estatística obtida calculando essa estatística em múltiplas amostras bootstrap, permitindo estimar a variabilidade e propriedades assintóticas do estimador. Esta distribuição serve como base para inferências bootstrap.
Erro Padrão Bootstrap
Estimativa do erro padrão de uma estatística calculada como o desvio padrão de sua distribuição bootstrap, fornecendo uma medida de precisão robusta a suposições distribucionais. Esta estimativa é particularmente útil para estatísticas complexas.
Teste de Hipóteses Bootstrap
Abordagem de teste de hipóteses usando bootstrap para gerar a distribuição sob a hipótese nula e calcular valores-p de forma não paramétrica. Este método evita aproximações assintóticas e funciona com estatísticas de teste complexas.
Seleção de Modelo Bootstrap
Processo de seleção de modelo usando bootstrap para avaliar a estabilidade e performance comparativa de diferentes modelos candidatos em múltiplas reamostras. Esta abordagem quantifica a incerteza no próprio processo de seleção.
Análise de Poder Bootstrap
Avaliação do poder estatístico de um teste ou modelo simulando múltiplas amostras bootstrap sob diferentes alternativas hipotéticas. Este método permite estimar o tamanho amostral necessário sem suposições distribucionais restritivas.
Calibração Bootstrap
Técnica de ajuste das probabilidades previstas por um modelo de classificação usando bootstrap para estimar e corrigir o viés de calibração. Este método melhora a confiabilidade dos escores de probabilidade do modelo.
Métodos de Ensemble Bootstrap
Família de algoritmos que combina bootstrap e agregação para reduzir a variância das previsões, incluindo Random Forest, Extra Trees e outros métodos baseados em amostras bootstrap. Estes métodos exploram a diversidade criada pela reamostragem.
Importância de Características Bootstrap
Avaliação da importância das variáveis medindo seu impacto no desempenho do modelo através de múltiplas amostras bootstrap, fornecendo intervalos de confiança para a importância. Esta abordagem quantifica a estabilidade da importância das características.
Estabilidade do Modelo Bootstrap
Medida da robustez de um modelo avaliada pela consistência de suas previsões ou parâmetros através de diferentes amostras bootstrap. A estabilidade é crucial para a confiança nas implantações reais do modelo.
Bootstrap.632+
Variante avançada do bootstrap que corrige o viés otimista da estimativa de erro combinando o erro bootstrap e o erro aparente com um peso de 0.632, ajustado para o sobreajuste. Este método fornece estimativas de erro mais precisas.