🏠 Inicio
Pruebas de rendimiento
📊 Todos los benchmarks 🦖 Dinosaurio v1 🦖 Dinosaurio v2 ✅ Aplicaciones To-Do List 🎨 Páginas libres creativas 🎯 FSACB - Showcase definitivo 🌍 Benchmark de traducción
Modelos
🏆 Top 10 modelos 🆓 Modelos gratuitos 📋 Todos los modelos ⚙️ Kilo Code
Recursos
💬 Biblioteca de prompts 📖 Glosario de IA 🔗 Enlaces útiles

Glosario IA

El diccionario completo de la Inteligencia Artificial

231
categorías
2.999
subcategorías
35.535
términos
📖
términos

XGBoost

Implémentation optimisée de gradient boosting utilisant des techniques de régularisation avancées, le traitement parallèle et l'optimisation de la mémoire pour améliorer la performance et la vitesse d'entraînement.

📖
términos

AdaBoost

Méthode de boosting adaptatif qui ajuste dynamiquement les poids des observations d'entraînement, se concentrant sur les exemples difficiles à travers des itérations successives de weak learners.

📖
términos

Weak Learner

Modèle prédictif simple (généralement un arbre de décision peu profond) dont la performance est légèrement supérieure au hasard, utilisé comme brique de base dans les méthodes de boosting.

📖
términos

Loss Function

Fonction mathématique qui quantifie l'erreur entre les prédictions du modèle et les valeurs réelles, guidant l'optimisation itérative dans les algorithmes de gradient boosting.

📖
términos

Gradient Descent

Algorithme d'optimisation itératif qui ajuste les paramètres du modèle dans la direction opposée au gradient de la fonction de perte pour minimiser l'erreur globale.

📖
términos

Residual Learning

Technique où chaque modèle successif apprend à prédire les résidus (erreurs) du modèle précédent, permettant une approximation progressive et précise de la fonction cible.

📖
términos

Subsampling

Technique d'échantillonnage aléatoire des données d'entraînement pour chaque itération, introduisant de la stochasticité et réduisant la corrélation entre les arbres pour une meilleure généralisation.

📖
términos

Regularization

Ensemble de techniques (L1, L2, élagage) qui pénalisent la complexité du modèle pour contrôler le surapprentissage et améliorer la capacité de généralisation.

📖
términos

Tree Pruning

Proceso de poda de ramas de árboles de decisión después de su construcción completa, eliminando subdivisiones no informativas para reducir la complejidad y mejorar la generalización.

📖
términos

Histogram-based Algorithm

Optimización que discretiza las características continuas en histogramas antes de la construcción de los árboles, acelerando considerablemente la búsqueda de los mejores puntos de división.

📖
términos

Leaf-wise Growth

Estrategia de construcción de árboles que divide la hoja que presenta la mayor reducción de pérdida, en lugar de desarrollar todas las hojas a la misma profundidad.

🔍

No se encontraron resultados