🏠 Inicio
Pruebas de rendimiento
📊 Todos los benchmarks 🦖 Dinosaurio v1 🦖 Dinosaurio v2 ✅ Aplicaciones To-Do List 🎨 Páginas libres creativas 🎯 FSACB - Showcase definitivo 🌍 Benchmark de traducción
Modelos
🏆 Top 10 modelos 🆓 Modelos gratuitos 📋 Todos los modelos ⚙️ Kilo Code
Recursos
💬 Biblioteca de prompts 📖 Glosario de IA 🔗 Enlaces útiles

Glosario IA

El diccionario completo de la Inteligencia Artificial

231
categorías
2.999
subcategorías
35.535
términos
📖
términos

Bootstrap Aggregating

Método estadístico que combina el muestreo bootstrap y la agregación de predicciones de múltiples modelos entrenados en dichas muestras para estabilizar los resultados.

📖
términos

Muestreo con reemplazo

Técnica de creación de muestras bootstrap donde cada observación puede ser seleccionada varias veces, permitiendo una diversidad máxima de subconjuntos de entrenamiento.

📖
términos

Out-of-Bag (OOB)

Muestra de observaciones no seleccionadas durante la creación de un bootstrap específico, utilizada como conjunto de validación interno para evaluar el rendimiento sin necesidad de validación cruzada externa.

📖
términos

Error OOB

Métrica de evaluación calculada al agrupar las predicciones sobre las muestras out-of-bag para cada observación, proporcionando una estimación imparcial del error de generalización.

📖
términos

Agregación por voto mayoritario

Método de combinación de predicciones en clasificación donde cada modelo vota por una clase y se selecciona la clase mayoritaria como la predicción final.

📖
términos

Agregación por promedio

Técnica de combinación en regresión donde las predicciones numéricas de todos los modelos se promedian para producir una predicción final más estable.

📖
términos

Paralelización

Ventaja computacional del bagging que permite entrenar simultáneamente modelos en diferentes procesadores o máquinas ya que son independientes entre sí.

📖
términos

Subespacios aleatorios

Extensión del bagging donde cada modelo utiliza solo un subconjunto aleatorio de características, aumentando la diversidad y reduciendo la correlación entre las predicciones.

📖
términos

Arbres de décision non élagués

Apprenants de base utilisés en bagging laissés à leur complexité maximale sans élagage, car l'agrégation compensera leur sur-apprentissage individuel.

📖
términos

Stabilité du modèle

Propriété améliorée par le bagging où les prédictions du modèle final varient moins face aux petites variations des données d'entraînement.

📖
términos

Forêt aléatoire extrême

Variante du random forest où les seuils de division des variables sont choisis aléatoirement au lieu d'être optimisés, augmentant la diversité au détriment du biais.

📖
términos

Corrélation des prédicteurs

Facteur clé dans l'efficacité du bagging, où une corrélation plus faible entre les prédictions des modèles de base conduit à une meilleure réduction de variance.

📖
términos

Taille de l'ensemble

Nombre de modèles dans le bagging, où un nombre plus élevé réduit la variance mais avec des rendements décroissants et un coût computationnel accru.

📖
términos

Bootstrap samples

Ensembles de données créés par échantillonnage avec remise de l'ensemble d'entraînement original, chacun contenant environ 63.2% des observations uniques.

📖
términos

Bagging boosting hybridation

Approches combinant les principes du bagging et du boosting pour exploiter simultanément la réduction de variance et la réduction du biais.

📖
términos

Variance empirique

Métrique mesurant la dispersion des prédictions des différents modèles de base avant agrégation, servant d'indicateur du gain potentiel du bagging.

🔍

No se encontraron resultados