🏠 Hem
Benchmarkar
📊 Alla benchmarkar 🦖 Dinosaur v1 🦖 Dinosaur v2 ✅ To-Do List-applikationer 🎨 Kreativa fria sidor 🎯 FSACB - Ultimata uppvisningen 🌍 Översättningsbenchmark
Modeller
🏆 Topp 10 modeller 🆓 Gratis modeller 📋 Alla modeller ⚙️ Kilo Code
Resurser
💬 Promptbibliotek 📖 AI-ordlista 🔗 Användbara länkar

AI-ordlista

Den kompletta ordlistan över AI

162
kategorier
2 032
underkategorier
23 060
termer
📖
termer

Temporal Transformer

Architecture neuronale adaptée du transformer original pour le traitement des séries temporelles, utilisant des mécanismes d'attention pour capturer les dépendances temporelles à long terme. Cette architecture modifie les composants du transformer standard pour mieux gérer les caractéristiques spécifiques des données séquentielles temporelles.

📖
termer

Patch Time Series Transformer (PatchTST)

Architecture transformer qui divise les séries temporelles en patchs pour améliorer l'efficacité computationnelle et capturer les motifs locaux et globaux. Cette approche permet de réduire la complexité temporelle tout en préservant les relations temporelles importantes dans les données.

📖
termer

Temporal Positional Encoding

Mécanisme d'encodage qui injecte des informations temporelles dans les séries temporelles pour que le modèle comprenne l'ordre chronologique des observations. Contrairement à l'encodage positionnel standard pour le texte, il doit tenir compte des intervalles de temps variables et des périodicités.

📖
termer

Causal Attention Masking

Technique de masquage qui empêche le modèle d'utiliser des informations futures lors de la prédiction, assurant que l'attention ne se porte que sur les pas temporels passés. Essentiel pour les tâches de prévision où les prédictions ne doivent dépendre que des données historiques.

📖
termer

Informer Architecture

Architecture transformer optimisée pour les séries temporelles longues avec un mécanisme d'attention probabiliste efficace et un distillateur de dépendances. Conçue pour réduire la complexité quadratique de l'attention standard tout en préservant la capacité à capturer les dépendances à long terme.

📖
termer

Temporal Fusion Transformer (TFT)

Architecture hybride qui combine des mécanismes d'attention avec des réseaux de résonance pour la prévision de séries temporelles multivariées. Intègre des variables statiques et des contrôles d'interprétabilité pour comprendre les relations entre les différentes séries temporelles.

📖
termer

Autoformer

Architecture transformer avec un mécanisme d'autocorrélation profond qui remplace l'attention standard pour une meilleure capture des dépendances temporelles. Utilise une décomposition série-temps pour séparer les tendances et la saisonnalité, améliorant ainsi la précision des prévisions.

📖
termer

Cross-Attention for Multivariate Series

Mécanisme d'attention qui modélise les interactions entre différentes variables temporelles dans des séries multivariées. Permet au modèle de découvrir et d'exploiter les relations inter-séries pour améliorer la précision des prédictions.

📖
termer

Temporal Attention Window

Technique qui limite la portée de l'attention à une fenêtre temporelle spécifique pour réduire la complexité computationnelle et se concentrer sur les dépendances pertinentes. Particulièrement utile pour les séries temporelles très longues où les dépendances lointaines sont moins importantes.

📖
termer

Time Series Patch Embedding

Processus de transformation de segments de séries temporelles en vecteurs d'embedding qui servent d'entrée aux couches transformer. Permet de réduire la dimensionnalité des données tout en préservant les motifs temporels importants.

📖
termer

Seasonal Decomposition Transformer

Architecture qui intègre une décomposition saisonnière explicite dans le pipeline transformer pour mieux modéliser les motifs cycliques. Sépare les séries en composantes tendance, saisonnière et résiduelle avant l'application des mécanismes d'attention.

📖
termer

Efficient Attention for Time Series

Variants d'attention optimisés pour les séries temporelles qui réduisent la complexité computationnelle de O(n²) à O(n) ou O(n log n). Comprennent des approches comme Performer, Linformer ou Reformer adaptées spécifiquement aux données temporelles.

📖
termer

Variable Selection Transformer

Mécanisme qui apprend à sélectionner dynamiquement les variables les plus pertinentes à chaque pas temporel pour la prédiction. Utilise des poids d'attention pour modéliser l'importance variable des features au cours du temps.

📖
termer

Temporal Self-Attention

Mécanisme où chaque point temporel calcule son importance par rapport à tous les autres points de la même série. Permet de capturer des dépendances complexes et à longue portée sans les contraintes des modèles RNN traditionnels.

📖
termer

Gated Attention for Time Series

Mécanisme d'attention qui utilise des portes pour contrôler sélectivement le flux d'information temporelle dans les architectures transformer. Améliore la capacité du modèle à se concentrer sur les périodes pertinentes tout en ignorant le bruit temporel.

📖
termer

Hierarchical Temporal Attention

Architecture d'attention qui opère à plusieurs échelles temporelles simultanément pour capturer les motifs à court, moyen et long terme. Combine les informations de différentes résolutions temporelles pour une compréhension complète des dynamiques séquentielles.

📖
termer

Adaptive Frequency Attention

Mécanisme qui adapte l'attention en fonction des fréquences dominantes dans les séries temporelles analysées. Combine les approches temporelles et fréquentielles pour une meilleure modélisation des motifs périodiques et cycliques.

🔍

Inga resultat hittades