🏠 Inicio
Pruebas de rendimiento
📊 Todos los benchmarks 🦖 Dinosaurio v1 🦖 Dinosaurio v2 ✅ Aplicaciones To-Do List 🎨 Páginas libres creativas 🎯 FSACB - Showcase definitivo 🌍 Benchmark de traducción
Modelos
🏆 Top 10 modelos 🆓 Modelos gratuitos 📋 Todos los modelos ⚙️ Kilo Code
Recursos
💬 Biblioteca de prompts 📖 Glosario de IA 🔗 Enlaces útiles

Glosario IA

El diccionario completo de la Inteligencia Artificial

231
categorías
2.999
subcategorías
35.535
términos
📖
términos

Clasificador débil

Modelo de clasificación cuyo rendimiento es ligeramente superior al azar, utilizado como bloque de construcción en los algoritmos de boosting.

📖
términos

Pesos de entrenamiento

Valores numéricos asignados a cada ejemplo de entrenamiento para indicar su importancia relativa en la siguiente iteración del algoritmo.

📖
términos

Tasa de error ponderada

Medida de rendimiento de un clasificador débil calculada como la suma de los pesos de los ejemplos mal clasificados dividida por la suma total de los pesos.

📖
términos

Coeficiente del clasificador

Peso alfa calculado para cada clasificador débil en AdaBoost, que determina su influencia en la votación final basándose en su rendimiento.

📖
términos

Decision Stump

Árbol de decisión simplificado con un solo nodo y dos hojas, a menudo utilizado como clasificador débil en AdaBoost.

📖
términos

SAMME

Extensión multiclase de AdaBoost (Stagewise Additive Modeling using a Multiclass Exponential loss) que adapta el algoritmo original a problemas con más de dos clases.

📖
términos

Voto mayoritario ponderado

Método de agregación donde cada clasificador vota proporcionalmente a su coeficiente de confianza calculado por el algoritmo AdaBoost.

📖
términos

Entrenamiento iterativo

Proceso secuencial donde cada nuevo clasificador se entrena sobre los datos reponderados en función del rendimiento de los clasificadores anteriores.

📖
términos

Hipótesis de aprendizaje débil

Principio fundamental del boosting que establece que es posible combinar clasificadores ligeramente mejores que el azar para obtener un clasificador fuerte.

📖
términos

Tasa de aprendizaje AdaBoost

Parámetro de contracción (shrinkage) que controla la contribución de cada clasificador débil al modelo final, permitiendo regularizar el algoritmo.

📖
términos

Ponderación de instancias

Mecanismo central de AdaBoost que modifica la distribución de probabilidad sobre los ejemplos de entrenamiento para enfocarse en los casos difíciles.

📖
términos

Modelado Aditivo por Etapas (Stagewise Additive Modeling)

Enfoque de construcción de modelos donde los clasificadores se añaden secuencialmente sin retocar los parámetros de los clasificadores anteriores.

📖
términos

Robustez a los outliers

Sensibilidad de AdaBoost a los valores atípicos (outliers) debido a la ponderación exponencial creciente de los ejemplos constantemente mal clasificados.

📖
términos

Convergencia AdaBoost

Propiedad teórica que garantiza que el error de entrenamiento de AdaBoost disminuye exponencialmente con el número de iteraciones bajo ciertas condiciones.

📖
términos

Frontera de decisión aditiva

Superficie de separación final resultante de la combinación lineal ponderada de las fronteras de decisión de los clasificadores débiles.

🔍

No se encontraron resultados