🏠 Início
Avaliações
📊 Todos os Benchmarks 🦖 Dinossauro v1 🦖 Dinossauro v2 ✅ Aplicações To-Do List 🎨 Páginas Livres Criativas 🎯 FSACB - Showcase Definitivo 🌍 Benchmark de Tradução
Modelos
🏆 Top 10 Modelos 🆓 Modelos Gratuitos 📋 Todos os Modelos ⚙️ Kilo Code
Recursos
💬 Biblioteca de Prompts 📖 Glossário de IA 🔗 Links Úteis

Glossário IA

O dicionário completo da Inteligência Artificial

242
categorias
3.306
subcategorias
39.932
termos
📖
termos

Exclusive Feature Bundling (EFB)

Otimização exclusiva do LightGBM que agrupa recursos mutualmente exclusivos para reduzir dimensionalidade e acelerar o treinamento sem perda de informação.

📖
termos

Gradient-based One-Side Sampling (GOSS)

Método de amostragem que mantém todas as instâncias com grandes gradientes e faz amostragem aleatória daquelas com pequenos gradientes, acelerando o treinamento ao mesmo tempo em que mantém a precisão.

📖
termos

Max leaves

Parâmetro que controla o número máximo de folhas em cada árvore, influenciando diretamente a complexidade do modelo e o risco de overfitting no LightGBM.

📖
termos

Learning rate shrinkage

Taxa de aprendizado usada para ponderar a contribuição de cada árvore no modelo final, controlando a velocidade de convergência e a regularização do gradient boosting.

📖
termos

Bagging fraction

Proporção de amostras de treinamento utilizadas para construir cada árvore, implementando uma forma de bagging para reduzir o overfitting no LightGBM.

📖
termos

Feature fraction

Percentual de recursos selecionados aleatoriamente para cada iteração de treinamento, introduzindo estocasticidade para melhorar a generalização do modelo.

📖
termos

Categorical feature handling

Capacidade nativa do LightGBM de lidar eficientemente com variáveis categóricas sem codificação prévia, usando algoritmos otimizados para encontrar os melhores pontos de divisão.

📖
termos

Regularization parameters

Parâmetros como lambda_l1 e lambda_l2 controlando penalizações L1 e L2 sobre os pesos das folhas para prevenir overfitting nos modelos LightGBM.

📖
termos

Tree construction parallelism

Capacité de LightGBM à paralléliser la construction des arbres au niveau des caractéristiques (feature parallel) ou des données (data parallel) pour accélérer l'entraînement.

📖
termos

Leaf-wise bias correction

Technique de correction du biais inhérent à la croissance leaf-wise qui tend à favoriser les arbres déséquilibrés, ajustant les prédictions finales pour maintenir l'impartialité.

📖
termos

Gradient statistics

Statistiques de gradient et de hessien accumulées dans chaque nœud pour évaluer la qualité des divisions potentielles selon la théorie du gradient boosting.

📖
termos

Prediction speed

Avantage de LightGBM offrant des prédictions extrêmement rapides grâce à la structure leaf-wise compacte des arbres et aux optimisations d'inférence implémentées.

🔍

Nenhum resultado encontrado