Glossário IA
O dicionário completo da Inteligência Artificial
Validação Cruzada K-Fold
Técnica de avaliação de modelo que divide o conjunto de dados em K partições iguais, onde cada partição serve alternadamente como conjunto de teste enquanto as outras K-1 servem para treinamento. Este método permite obter uma estimativa mais robusta do desempenho do modelo, reduzindo a variância da avaliação.
Validação Cruzada K-Fold Estratificada
Variante do K-Fold que mantém a distribuição das classes em cada partição, essencial para conjuntos de dados desequilibrados. Esta abordagem garante que cada fold represente fielmente a distribuição global das classes do conjunto de dados original.
Método Holdout
Método simples de avaliação que divide o conjunto de dados em dois conjuntos distintos: treinamento e teste, geralmente com proporções de 70/30 ou 80/20. Embora rápido de implementar, este método pode produzir estimativas de desempenho tendenciosas dependendo de como os dados são particionados.
Validação Cruzada Repetida
Técnica que repete o processo K-Fold várias vezes com diferentes partições aleatórias para reduzir a variância da estimativa de desempenho. Esta abordagem combina as vantagens do K-Fold com uma maior robustez estatística, embora com um custo computacional aumentado.
Validação Bootstrap
Método de avaliação que utiliza amostragem com reposição para criar vários conjuntos de treinamento e teste a partir dos dados originais. O bootstrap permite estimar a variância do desempenho do modelo e é particularmente útil com conjuntos de dados de pequeno tamanho.
Busca em Grade com Validação Cruzada
Técnica de otimização sistemática que testa exaustivamente todas as combinações de hiperparâmetros especificadas, utilizando validação cruzada para avaliar cada configuração. Este método garante encontrar a melhor combinação na grade definida, mas pode ser muito custoso em termos computacionais.
Busca Aleatória com Validação Cruzada
Alternativa à Busca em Grade que amostra aleatoriamente um número fixo de combinações de hiperparâmetros em vez de explorar exaustivamente todas as possibilidades. Esta abordagem é frequentemente mais eficiente para encontrar bons hiperparâmetros com menos avaliações do que a Busca em Grade.
Curva de Aprendizado
Gráfico que mostra a evolução do desempenho do modelo em função do tamanho do conjunto de treinamento, utilizado para diagnosticar sobreajuste ou subajuste. As curvas de aprendizado ajudam a determinar se mais dados poderiam melhorar o desempenho do modelo.
Curva de Validação
Ferramenta de diagnóstico que visualiza o impacto de um único hiperparâmetro no desempenho de treinamento e validação. As curvas de validação permitem identificar valores ótimos de hiperparâmetros e detectar problemas de viés-variância.
Entropia Cruzada
Função de perda que mede a divergência entre duas distribuições de probabilidade, amplamente utilizada em problemas de classificação. A entropia cruzada penaliza mais as previsões incorretas quanto mais confiantes elas forem, tornando-a uma excelente métrica de treinamento.
Erro Quadrático Médio
Métrica de avaliação que calcula a média dos quadrados das diferenças entre valores previstos e reais, particularmente sensível a grandes erros. O MSE é comumente usado para problemas de regressão e penaliza mais os erros importantes do que o MAE.
Erro Absoluto Médio
Métrica de regressão que mede a média dos valores absolutos dos erros entre previsões e valores reais, oferecendo uma interpretação direta nas unidades da variável alvo. Ao contrário do MSE, o MAE é menos sensível a outliers e representa o erro médio absoluto.
Pontuação R²
Coeficiente de determinação que mede a proporção da variância da variável alvo explicada pelo modelo, variando entre -∞ e 1. Um R² de 1 indica uma previsão perfeita, enquanto valores negativos sugerem que o modelo tem desempenho pior do que uma simples média.
Pontuação F1
Métrica de classificação que calcula a média harmônica da precisão e do recall, particularmente útil para conjuntos de dados desequilibrados. O F1-Score equilibra a capacidade do modelo de evitar falsos positivos e falsos negativos em uma única medida.
Curva Precisão-Recall
Gráfico que ilustra o compromisso entre precisão e recall para diferentes limiares de classificação, essencial para avaliar modelos em dados desequilibrados. A área sob esta curva (AUC-PR) fornece uma medida agregada de desempenho independente do limiar.
Curva ROC
Curva que representa a taxa de verdadeiros positivos contra a taxa de falsos positivos em vários limiares de decisão, visualizando a capacidade de discriminação do modelo. A curva ROC e sua área (AUC-ROC) são padrões para avaliar o desempenho global de classificadores binários.
Pontuação AUC
Área sob a curva ROC medindo a probabilidade de um classificador dar uma pontuação mais alta a uma instância positiva aleatória do que a uma instância negativa. A AUC fornece uma medida de desempenho independente do limiar, particularmente útil para comparar diferentes modelos.
Validação Cruzada K-Fold por Grupos
Variante do K-Fold que garante que os mesmos grupos nunca apareçam simultaneamente em diferentes conjuntos de treinamento e teste. Esta abordagem é crucial quando os dados apresentam uma estrutura de grupos (pacientes, usuários) onde as observações do mesmo grupo estão correlacionadas.