🏠 Inicio
Pruebas de rendimiento
📊 Todos los benchmarks 🦖 Dinosaurio v1 🦖 Dinosaurio v2 ✅ Aplicaciones To-Do List 🎨 Páginas libres creativas 🎯 FSACB - Showcase definitivo 🌍 Benchmark de traducción
Modelos
🏆 Top 10 modelos 🆓 Modelos gratuitos 📋 Todos los modelos ⚙️ Kilo Code
Recursos
💬 Biblioteca de prompts 📖 Glosario de IA 🔗 Enlaces útiles

Glosario IA

El diccionario completo de la Inteligencia Artificial

231
categorías
2.999
subcategorías
35.535
términos
📖
términos

Parallel Ensemble Learning

Paradigma de aprendizaje en el cual los modelos base se construyen simultáneamente e independientemente unos de otros, permitiendo una paralelización eficiente en arquitecturas distribuidas. Contrasta con métodos secuenciales como el boosting, donde los modelos dependen de los anteriores.

📖
términos

Decision Tree Ensemble

Colección de árboles de decisión construidos en paralelo para formar un modelo predictivo más robusto y generalizable que un único árbol. Cada árbol captura diferentes patrones de los datos, y su combinación reduce el riesgo de sobreajuste.

📖
términos

Model Averaging

Técnica de agregación que combina predicciones continuas de múltiples modelos mediante el cálculo de su media aritmética. En clasificación, equivale a promediar las probabilidades de clase (votación suave) antes de la decisión final.

📖
términos

Independent Base Learners

Modelos fundamentales en conjuntos paralelos construidos sin interacción ni dependencia entre sí durante el entrenamiento. Esta independencia permite una paralelización eficiente y reduce el riesgo de propagación de errores entre modelos.

📖
términos

Feature Subspace

Subconjunto aleatorio de características seleccionadas en cada nodo de división en Random Forest, típicamente √p para clasificación y p/3 para regresión. Introduce mayor diversidad entre los árboles para mejorar el rendimiento del conjunto.

📖
términos

Pasting

Variante del bagging que utiliza muestras sin reemplazo en lugar de con reemplazo, asegurando que cada observación aparezca como máximo una vez por muestra. Útil cuando el tamaño del conjunto de datos es suficientemente grande para evitar redundancia.

📖
términos

Random Subspaces

Método de conjunto que construye cada modelo base sobre un subconjunto aleatorio de características en lugar de observaciones, aplicando el enfoque de bagging en el espacio de atributos. Es particularmente eficaz para datos de alta dimensionalidad con características redundantes.

🔍

No se encontraron resultados