🏠 Home
Prestatietests
📊 Alle benchmarks 🦖 Dinosaur v1 🦖 Dinosaur v2 ✅ To-Do List applicaties 🎨 Creatieve vrije pagina's 🎯 FSACB - Ultieme showcase 🌍 Vertaalbenchmark
Modellen
🏆 Top 10 modellen 🆓 Gratis modellen 📋 Alle modellen ⚙️ Kilo Code
Bronnen
💬 Promptbibliotheek 📖 AI-woordenlijst 🔗 Nuttige links

AI-woordenlijst

Het complete woordenboek van kunstmatige intelligentie

162
categorieën
2.032
subcategorieën
23.060
termen
📖
termen

Temporal Transformer

Architecture neuronale adaptée du transformer original pour le traitement des séries temporelles, utilisant des mécanismes d'attention pour capturer les dépendances temporelles à long terme. Cette architecture modifie les composants du transformer standard pour mieux gérer les caractéristiques spécifiques des données séquentielles temporelles.

📖
termen

Patch Time Series Transformer (PatchTST)

Architecture transformer qui divise les séries temporelles en patchs pour améliorer l'efficacité computationnelle et capturer les motifs locaux et globaux. Cette approche permet de réduire la complexité temporelle tout en préservant les relations temporelles importantes dans les données.

📖
termen

Temporal Positional Encoding

Mécanisme d'encodage qui injecte des informations temporelles dans les séries temporelles pour que le modèle comprenne l'ordre chronologique des observations. Contrairement à l'encodage positionnel standard pour le texte, il doit tenir compte des intervalles de temps variables et des périodicités.

📖
termen

Causal Attention Masking

Technique de masquage qui empêche le modèle d'utiliser des informations futures lors de la prédiction, assurant que l'attention ne se porte que sur les pas temporels passés. Essentiel pour les tâches de prévision où les prédictions ne doivent dépendre que des données historiques.

📖
termen

Informer Architecture

Architecture transformer optimisée pour les séries temporelles longues avec un mécanisme d'attention probabiliste efficace et un distillateur de dépendances. Conçue pour réduire la complexité quadratique de l'attention standard tout en préservant la capacité à capturer les dépendances à long terme.

📖
termen

Temporal Fusion Transformer (TFT)

Architecture hybride qui combine des mécanismes d'attention avec des réseaux de résonance pour la prévision de séries temporelles multivariées. Intègre des variables statiques et des contrôles d'interprétabilité pour comprendre les relations entre les différentes séries temporelles.

📖
termen

Autoformer

Architecture transformer avec un mécanisme d'autocorrélation profond qui remplace l'attention standard pour une meilleure capture des dépendances temporelles. Utilise une décomposition série-temps pour séparer les tendances et la saisonnalité, améliorant ainsi la précision des prévisions.

📖
termen

Cross-Attention for Multivariate Series

Mécanisme d'attention qui modélise les interactions entre différentes variables temporelles dans des séries multivariées. Permet au modèle de découvrir et d'exploiter les relations inter-séries pour améliorer la précision des prédictions.

📖
termen

Temporal Attention Window

Technique qui limite la portée de l'attention à une fenêtre temporelle spécifique pour réduire la complexité computationnelle et se concentrer sur les dépendances pertinentes. Particulièrement utile pour les séries temporelles très longues où les dépendances lointaines sont moins importantes.

📖
termen

Time Series Patch Embedding

Processus de transformation de segments de séries temporelles en vecteurs d'embedding qui servent d'entrée aux couches transformer. Permet de réduire la dimensionnalité des données tout en préservant les motifs temporels importants.

📖
termen

Seasonal Decomposition Transformer

Architecture qui intègre une décomposition saisonnière explicite dans le pipeline transformer pour mieux modéliser les motifs cycliques. Sépare les séries en composantes tendance, saisonnière et résiduelle avant l'application des mécanismes d'attention.

📖
termen

Efficient Attention for Time Series

Variants d'attention optimisés pour les séries temporelles qui réduisent la complexité computationnelle de O(n²) à O(n) ou O(n log n). Comprennent des approches comme Performer, Linformer ou Reformer adaptées spécifiquement aux données temporelles.

📖
termen

Variable Selection Transformer

Mécanisme qui apprend à sélectionner dynamiquement les variables les plus pertinentes à chaque pas temporel pour la prédiction. Utilise des poids d'attention pour modéliser l'importance variable des features au cours du temps.

📖
termen

Temporal Self-Attention

Mécanisme où chaque point temporel calcule son importance par rapport à tous les autres points de la même série. Permet de capturer des dépendances complexes et à longue portée sans les contraintes des modèles RNN traditionnels.

📖
termen

Gated Attention for Time Series

Mécanisme d'attention qui utilise des portes pour contrôler sélectivement le flux d'information temporelle dans les architectures transformer. Améliore la capacité du modèle à se concentrer sur les périodes pertinentes tout en ignorant le bruit temporel.

📖
termen

Hierarchical Temporal Attention

Architecture d'attention qui opère à plusieurs échelles temporelles simultanément pour capturer les motifs à court, moyen et long terme. Combine les informations de différentes résolutions temporelles pour une compréhension complète des dynamiques séquentielles.

📖
termen

Adaptive Frequency Attention

Mécanisme qui adapte l'attention en fonction des fréquences dominantes dans les séries temporelles analysées. Combine les approches temporelles et fréquentielles pour une meilleure modélisation des motifs périodiques et cycliques.

🔍

Geen resultaten gevonden