Słownik AI
Kompletny słownik sztucznej inteligencji
Stationnarité forte
Propriété selon laquelle la distribution conjointe d'une série temporelle est invariante par translation dans le temps. Cette condition implique que tous les moments statistiques de la série sont constants et indépendants du temps.
Stationnarité faible
Condition où la moyenne, la variance et l'autocorrélation d'une série temporelle sont constantes dans le temps. Également appelée stationnarité au sens large, elle constitue une hypothèse moins restrictive que la stationnarité forte.
Test de Dickey-Fuller
Test statistique utilisé pour déterminer la présence d'une racine unitaire dans une série temporelle, permettant d'évaluer la non-stationnarité. L'hypothèse nulle postule l'existence d'une racine unitaire, indiquant que la série est non-stationnaire.
Test de Dickey-Fuller Augmenté (ADF)
Extension du test de Dickey-Fuller incluant des termes de différenciation retardés pour corriger l'autocorrélation des résidus. Ce test améliore la puissance statistique lorsque les erreurs suivent un processus autorégressif d'ordre supérieur.
Test KPSS
Test de stationnarité développé par Kwiatkowski, Phillips, Schmidt et Shin, dont l'hypothèse nulle est la stationnarité. Complémentaire au test ADF, il permet de distinguer entre tendance déterministe et stochastique dans les séries temporelles.
Test de Phillips-Perron
Test de racine unitaire non-paramétrique qui corrige l'autocorrélation sans ajouter de termes de différenciation retardés. Il utilise une correction de Newey-West pour ajuster la statistique de test en présence d'hétéroscédasticité et d'autocorrélation.
Processus ARIMA
Modèle autorégressif à moyenne mobile intégré combinant différenciation, autorégression et moyenne mobile pour modéliser des séries temporelles non-stationnaires. Les paramètres (p,d,q) représentent respectivement les ordres AR, le degré de différenciation et l'ordre MA.
Fonction d'autocorrélation (ACF)
Mesure de la corrélation sérielle entre les observations d'une série temporelle et leurs valeurs retardées à différents décalages. L'ACF aide à identifier la dépendance temporelle et à déterminer l'ordre approprié pour les composantes MA dans les modèles ARIMA.
Fonction d'autocorrélation partielle (PACF)
Mesure de la corrélation entre une observation et ses valeurs retardées, en contrôlant l'effet des observations intermédiaires. La PACF est essentielle pour identifier l'ordre approprié des composantes autorégressives dans les modèles temporels.
Marche aléatoire
Processus stochastique non-stationnaire où chaque valeur est égale à la valeur précédente plus une perturbation aléatoire. La marche aléatoire possède une racine unitaire et nécessite une différenciation pour devenir stationnaire.
Tendance déterministe
Composante systématique et prévisible de l'évolution d'une série temporelle, généralement modélisée par une fonction polynomiale du temps. Contrairement à la tendance stochastique, elle peut être éliminée par régression plutôt que par différenciation.
Saisonnalité
Pattern cyclique prévisible qui se répète à intervalles de temps fixes dans une série temporelle. La saisonnalité peut être additive ou multiplicative et nécessite une identification et une modélisation appropriées pour l'analyse prédictive.
Test de racine unitaire
Ensemble de tests statistiques évaluant si une série temporelle contient une racine unitaire, caractéristique fondamentale de la non-stationnarité. Ces tests déterminent si la différenciation est nécessaire pour stabiliser la série.
Cointégration
Relation d'équilibre à long terme entre plusieurs séries temporelles non-stationnaires mais dont une combinaison linéaire est stationnaire. La cointégration permet de modéliser des relations stables malgré la non-stationnarité individuelle des séries.
Modèle de tendance
Représentation mathématique capturant l'évolution systématique d'une série temporelle sur le long terme. Les modèles de tendance peuvent être linéaires, polynomiaux ou exponentiels selon la nature de la croissance observée.
Processus MA (Moyenne Mobile)
Modèle où la valeur actuelle dépend linéairement des erreurs passées, représentant les chocs aléatoires précédents. Les processus MA sont toujours stationnaires et sont caractérisés par une fonction d'autocorrélation qui s'annule après un certain ordre.
Processus AR (AutoRégressif)
Modèle où la valeur actuelle d'une série temporelle dépend linéairement de ses valeurs passées et d'un terme d'erreur aléatoire. Les processus AR nécessitent des conditions spécifiques sur les coefficients pour garantir la stationnarité.