AI 용어집
인공지능 완전 사전
Bagging (Bootstrap Aggregating)
Technique d'ensemble qui entraîne plusieurs modèles sur des sous-ensembles bootstrap des données d'entraînement et combine leurs prédictions par vote majoritaire ou moyenne. Cette méthode réduit la variance et améliore la robustesse du modèle final.
Stacking (Stacked Generalization)
Méthode d'ensemble qui utilise les prédictions de plusieurs modèles de base comme entrées pour un méta-modèle qui apprend la combinaison optimale. Cette approche capture des patterns complexes que les modèles individuels pourraient manquer.
Random Forest pour séries temporelles
Adaptation de l'algorithme Random Forest spécifiquement optimisée pour les données séquentielles, intégrant des caractéristiques temporelles comme les lags et moyennes mobiles. Cette méthode maintient l'indépendance des arbres tout en capturant les dépendances temporelles.
Gradient Boosting Machine (GBM)
Algorithme de boosting qui construit des modèles additifs en optimisant une fonction de perte différentiable via la descente de gradient. Chaque nouvel itéré est ajusté pour corriger le résidu du modèle précédent.
XGBoost pour séries temporelles
Implémentation optimisée de Gradient Boosting avec régularisation L1/L2 et traitement parallèle, adaptée pour les prévisions temporelles. Cette version intègre des fonctionnalités spécifiques comme la détection automatique de saisonnalité.
AdaBoost (Adaptive Boosting)
Algorithme de boosting qui ajuste itérativement les poids des observations mal classées, forçant les modèles suivants à se concentrer sur les cas difficiles. Particulièrement efficace pour les séries temporelles avec des anomalies.
Weighted Average Ensemble
Technique de combinaison où les prédictions des modèles sont pondérées selon leur performance historique ou validation croisée. Les poids sont optimisés pour minimiser l'erreur de prévision globale sur l'horizon temporel.
Voting Ensemble
Méthode d'agrégation combinant les prédictions de multiples modèles par vote majoritaire (hard voting) ou moyenne pondérée des probabilités (soft voting). Utilisée pour stabiliser les prévisions et réduire la variance.
AutoML pour séries temporelles
Système automatisant la sélection, l'entraînement et l'optimisation d'ensembles de modèles pour les prévisions temporelles. Combine algorithmes de recherche et méta-apprentissage pour identifier la meilleure stratégie d'ensemble.
Temporal Hierarchical Forecasting
Approche d'ensemble générant des prévisions à multiples niveaux temporels (jour, semaine, mois) et les réconciliant pour assurer la cohérence. Utilise des méthodes comme MinT ou OLS pour l'agrégation hiérarchique.
Bootstrap Time Series
Technique de rééchantillonnage préservant les dépendances temporelles pour créer des ensembles de séries bootstrap. Permet l'estimation robuste de l'incertitude et l'amélioration de la généralisation des modèles d'ensemble.