Glosario IA
El diccionario completo de la Inteligencia Artificial
Random Forest
Método de conjunto que combina cientos de árboles de decisión entrenados en submuestras bootstrap con selección aleatoria de variables, reduciendo así la varianza y evitando el sobreajuste.
Bootstrap Sampling
Método de muestreo con reemplazo que genera múltiples subconjuntos de datos del mismo tamaño que el conjunto original, permitiendo estimar la distribución de un estimador y reducir la varianza.
Gini Impurity
Criterio de división en árboles de decisión que mide la probabilidad de que un elemento elegido al azar sea clasificado incorrectamente, calculado como 1 menos la suma de los cuadrados de las probabilidades de cada clase.
Random Subspace Method
Técnica que selecciona aleatoriamente un subconjunto de características para cada división en el árbol, aumentando la diversidad entre los árboles y reduciendo la correlación en Random Forest.
Extra Trees
Variante de Random Forest que utiliza umbrales de división aleatorios en lugar de buscar el umbral óptimo, aumentando la aleatorización y reduciendo el tiempo de cálculo manteniendo el rendimiento.
Decision Tree
Modelo predictivo que construye una estructura de árbol de decisiones basada en las características de los datos, donde cada nodo interno representa una prueba sobre una característica y cada hoja una predicción.
Max Features
Hiperparámetro crucial en Random Forest que determina el número máximo de características a considerar para cada división, controlando el equilibrio entre sesgo y varianza.
Node Purity
Medida de la homogeneidad de un nodo en un árbol de decisión, donde un nodo puro contiene observaciones pertenecientes todas a la misma clase o con valores objetivo idénticos.
Bootstrap Aggregation
Processus mathématique qui combine les prédictions de plusieurs modèles entraînés sur des échantillons bootstrap pour produire une prédiction finale plus stable avec une variance réduite.
Tree Depth
Hyperparamètre contrôlant le nombre maximum de niveaux dans un arbre de décision, influençant directement la complexité du modèle et son risque de surapprentissage.
Minimum Samples Split
Paramètre qui définit le nombre minimum d'observations requis pour diviser un nœud interne, contrôlant la granularité de l'arbre et prévenant la création de branches spécifiques.
Variance Reduction
Objectif principal des méthodes d'ensemble comme Random Forest, qui diminue la sensibilité du modèle aux fluctuations des données d'entraînement grâce à l'agrégation de prédictions diverses.