Glossario IA
Il dizionario completo dell'Intelligenza Artificiale
Temporal Transformer
Architecture neuronale adaptée du transformer original pour le traitement des séries temporelles, utilisant des mécanismes d'attention pour capturer les dépendances temporelles à long terme. Cette architecture modifie les composants du transformer standard pour mieux gérer les caractéristiques spécifiques des données séquentielles temporelles.
Patch Time Series Transformer (PatchTST)
Architecture transformer qui divise les séries temporelles en patchs pour améliorer l'efficacité computationnelle et capturer les motifs locaux et globaux. Cette approche permet de réduire la complexité temporelle tout en préservant les relations temporelles importantes dans les données.
Temporal Positional Encoding
Mécanisme d'encodage qui injecte des informations temporelles dans les séries temporelles pour que le modèle comprenne l'ordre chronologique des observations. Contrairement à l'encodage positionnel standard pour le texte, il doit tenir compte des intervalles de temps variables et des périodicités.
Causal Attention Masking
Technique de masquage qui empêche le modèle d'utiliser des informations futures lors de la prédiction, assurant que l'attention ne se porte que sur les pas temporels passés. Essentiel pour les tâches de prévision où les prédictions ne doivent dépendre que des données historiques.
Informer Architecture
Architecture transformer optimisée pour les séries temporelles longues avec un mécanisme d'attention probabiliste efficace et un distillateur de dépendances. Conçue pour réduire la complexité quadratique de l'attention standard tout en préservant la capacité à capturer les dépendances à long terme.
Temporal Fusion Transformer (TFT)
Architecture hybride qui combine des mécanismes d'attention avec des réseaux de résonance pour la prévision de séries temporelles multivariées. Intègre des variables statiques et des contrôles d'interprétabilité pour comprendre les relations entre les différentes séries temporelles.
Autoformer
Architecture transformer avec un mécanisme d'autocorrélation profond qui remplace l'attention standard pour une meilleure capture des dépendances temporelles. Utilise une décomposition série-temps pour séparer les tendances et la saisonnalité, améliorant ainsi la précision des prévisions.
Cross-Attention for Multivariate Series
Mécanisme d'attention qui modélise les interactions entre différentes variables temporelles dans des séries multivariées. Permet au modèle de découvrir et d'exploiter les relations inter-séries pour améliorer la précision des prédictions.
Temporal Attention Window
Technique qui limite la portée de l'attention à une fenêtre temporelle spécifique pour réduire la complexité computationnelle et se concentrer sur les dépendances pertinentes. Particulièrement utile pour les séries temporelles très longues où les dépendances lointaines sont moins importantes.
Time Series Patch Embedding
Processus de transformation de segments de séries temporelles en vecteurs d'embedding qui servent d'entrée aux couches transformer. Permet de réduire la dimensionnalité des données tout en préservant les motifs temporels importants.
Seasonal Decomposition Transformer
Architecture qui intègre une décomposition saisonnière explicite dans le pipeline transformer pour mieux modéliser les motifs cycliques. Sépare les séries en composantes tendance, saisonnière et résiduelle avant l'application des mécanismes d'attention.
Efficient Attention for Time Series
Variants d'attention optimisés pour les séries temporelles qui réduisent la complexité computationnelle de O(n²) à O(n) ou O(n log n). Comprennent des approches comme Performer, Linformer ou Reformer adaptées spécifiquement aux données temporelles.
Variable Selection Transformer
Mécanisme qui apprend à sélectionner dynamiquement les variables les plus pertinentes à chaque pas temporel pour la prédiction. Utilise des poids d'attention pour modéliser l'importance variable des features au cours du temps.
Temporal Self-Attention
Mécanisme où chaque point temporel calcule son importance par rapport à tous les autres points de la même série. Permet de capturer des dépendances complexes et à longue portée sans les contraintes des modèles RNN traditionnels.
Gated Attention for Time Series
Mécanisme d'attention qui utilise des portes pour contrôler sélectivement le flux d'information temporelle dans les architectures transformer. Améliore la capacité du modèle à se concentrer sur les périodes pertinentes tout en ignorant le bruit temporel.
Hierarchical Temporal Attention
Architecture d'attention qui opère à plusieurs échelles temporelles simultanément pour capturer les motifs à court, moyen et long terme. Combine les informations de différentes résolutions temporelles pour une compréhension complète des dynamiques séquentielles.
Adaptive Frequency Attention
Mécanisme qui adapte l'attention en fonction des fréquences dominantes dans les séries temporelles analysées. Combine les approches temporelles et fréquentielles pour une meilleure modélisation des motifs périodiques et cycliques.