🏠 Início
Avaliações
📊 Todos os Benchmarks 🦖 Dinossauro v1 🦖 Dinossauro v2 ✅ Aplicações To-Do List 🎨 Páginas Livres Criativas 🎯 FSACB - Showcase Definitivo 🌍 Benchmark de Tradução
Modelos
🏆 Top 10 Modelos 🆓 Modelos Gratuitos 📋 Todos os Modelos ⚙️ Kilo Code
Recursos
💬 Biblioteca de Prompts 📖 Glossário de IA 🔗 Links Úteis

Glossário IA

O dicionário completo da Inteligência Artificial

242
categorias
3.306
subcategorias
39.932
termos
📖
termos

Bootstrap Aggregating

Método estatístico que combina o reamostragem bootstrap e a agregação das previsões de múltiplos modelos treinados nesses amostras para estabilizar os resultados.

📖
termos

Échantillonnage avec remise

Técnica de criação de amostras bootstrap onde cada observação pode ser selecionada várias vezes, permitindo uma diversidade máxima dos subconjuntos de treinamento.

📖
termos

Out-of-Bag (OOB)

Amostra de observações não selecionadas durante a criação de um bootstrap específico, usado como conjunto de validação interno para avaliar o desempenho sem validação cruzada externa.

📖
termos

Erreur OOB

Métrica de avaliação calculada ao agregar as previsões sobre as amostras out-of-bag para cada observação, fornecendo uma estimativa não enviesada do erro de generalização.

📖
termos

Agrégation par vote majoritaire

Método de combinação das previsões em classificação onde cada modelo vota por uma classe e a classe majoritária é selecionada como previsão final.

📖
termos

Agrégation par moyenne

Técnica de combinação em regressão onde as previsões numéricas de todos os modelos são médias para produzir uma previsão final mais estável.

📖
termos

Parallélisation

Vantagem computacional do bagging que permite o treinamento simultâneo dos modelos em diferentes processadores ou máquinas porque eles são independentes entre si.

📖
termos

Sous-espaces aléatoires

Extensão do bagging onde cada modelo usa apenas um subconjunto aleatório das características, aumentando a diversidade e reduzindo a correlação entre as previsões.

📖
termos

Árvores de decisão não podadas

Aprendizes básicos usados no bagging mantidos em sua complexidade máxima sem poda, pois a agregação compensará o overfitting individual.

📖
termos

Estabilidade do modelo

Propriedade melhorada pelo bagging na qual as previsões do modelo final variam menos diante de pequenas alterações nos dados de treinamento.

📖
termos

Floresta aleatória extrema

Variante da floresta aleatória na qual os limites de divisão das variáveis são escolhidos aleatoriamente em vez de serem otimizados, aumentando a diversidade em detrimento do viés.

📖
termos

Correlação dos preditores

Fator-chave na eficácia do bagging, no qual uma correlação mais baixa entre as previsões dos modelos básicos resulta em melhor redução da variância.

📖
termos

Tamanho do conjunto

Número de modelos no bagging, onde um número maior reduz a variância, mas com retornos decrescentes e aumento do custo computacional.

📖
termos

Amostras bootstrap

Conjuntos de dados criados por amostragem com reposição do conjunto de treinamento original, cada um contendo aproximadamente 63,2% das observações únicas.

📖
termos

Hibridação bagging-boosting

Abordagens que combinam os princípios do bagging e do boosting para explorar simultaneamente a redução de variância e a redução de viés.

📖
termos

Variância empírica

Métrica que mede a dispersão das previsões dos diferentes modelos básicos antes da agregação, servindo como indicador do ganho potencial do bagging.

🔍

Nenhum resultado encontrado