🏠 首页
基准测试
📊 所有基准测试 🦖 恐龙 v1 🦖 恐龙 v2 ✅ 待办事项应用 🎨 创意自由页面 🎯 FSACB - 终极展示 🌍 翻译基准测试
模型
🏆 前 10 名模型 🆓 免费模型 📋 所有模型 ⚙️ 🛠️ 千行代码模式
资源
💬 💬 提示库 📖 📖 AI 词汇表 🔗 🔗 有用链接

AI 词汇表

人工智能完整词典

200
个类别
2,608
个子类别
30,011
个术语
📖
个术语

Temporal Transformer

Architecture neuronale adaptée du transformer original pour le traitement des séries temporelles, utilisant des mécanismes d'attention pour capturer les dépendances temporelles à long terme. Cette architecture modifie les composants du transformer standard pour mieux gérer les caractéristiques spécifiques des données séquentielles temporelles.

📖
个术语

Patch Time Series Transformer (PatchTST)

Architecture transformer qui divise les séries temporelles en patchs pour améliorer l'efficacité computationnelle et capturer les motifs locaux et globaux. Cette approche permet de réduire la complexité temporelle tout en préservant les relations temporelles importantes dans les données.

📖
个术语

Temporal Positional Encoding

Mécanisme d'encodage qui injecte des informations temporelles dans les séries temporelles pour que le modèle comprenne l'ordre chronologique des observations. Contrairement à l'encodage positionnel standard pour le texte, il doit tenir compte des intervalles de temps variables et des périodicités.

📖
个术语

Causal Attention Masking

Technique de masquage qui empêche le modèle d'utiliser des informations futures lors de la prédiction, assurant que l'attention ne se porte que sur les pas temporels passés. Essentiel pour les tâches de prévision où les prédictions ne doivent dépendre que des données historiques.

📖
个术语

Informer Architecture

Architecture transformer optimisée pour les séries temporelles longues avec un mécanisme d'attention probabiliste efficace et un distillateur de dépendances. Conçue pour réduire la complexité quadratique de l'attention standard tout en préservant la capacité à capturer les dépendances à long terme.

📖
个术语

Temporal Fusion Transformer (TFT)

Architecture hybride qui combine des mécanismes d'attention avec des réseaux de résonance pour la prévision de séries temporelles multivariées. Intègre des variables statiques et des contrôles d'interprétabilité pour comprendre les relations entre les différentes séries temporelles.

📖
个术语

Autoformer

Architecture transformer avec un mécanisme d'autocorrélation profond qui remplace l'attention standard pour une meilleure capture des dépendances temporelles. Utilise une décomposition série-temps pour séparer les tendances et la saisonnalité, améliorant ainsi la précision des prévisions.

📖
个术语

Cross-Attention for Multivariate Series

Mécanisme d'attention qui modélise les interactions entre différentes variables temporelles dans des séries multivariées. Permet au modèle de découvrir et d'exploiter les relations inter-séries pour améliorer la précision des prédictions.

📖
个术语

Temporal Attention Window

Technique qui limite la portée de l'attention à une fenêtre temporelle spécifique pour réduire la complexité computationnelle et se concentrer sur les dépendances pertinentes. Particulièrement utile pour les séries temporelles très longues où les dépendances lointaines sont moins importantes.

📖
个术语

Time Series Patch Embedding

Processus de transformation de segments de séries temporelles en vecteurs d'embedding qui servent d'entrée aux couches transformer. Permet de réduire la dimensionnalité des données tout en préservant les motifs temporels importants.

📖
个术语

Seasonal Decomposition Transformer

Architecture qui intègre une décomposition saisonnière explicite dans le pipeline transformer pour mieux modéliser les motifs cycliques. Sépare les séries en composantes tendance, saisonnière et résiduelle avant l'application des mécanismes d'attention.

📖
个术语

Efficient Attention for Time Series

Variants d'attention optimisés pour les séries temporelles qui réduisent la complexité computationnelle de O(n²) à O(n) ou O(n log n). Comprennent des approches comme Performer, Linformer ou Reformer adaptées spécifiquement aux données temporelles.

📖
个术语

Variable Selection Transformer

Mécanisme qui apprend à sélectionner dynamiquement les variables les plus pertinentes à chaque pas temporel pour la prédiction. Utilise des poids d'attention pour modéliser l'importance variable des features au cours du temps.

📖
个术语

Temporal Self-Attention

Mécanisme où chaque point temporel calcule son importance par rapport à tous les autres points de la même série. Permet de capturer des dépendances complexes et à longue portée sans les contraintes des modèles RNN traditionnels.

📖
个术语

Gated Attention for Time Series

Mécanisme d'attention qui utilise des portes pour contrôler sélectivement le flux d'information temporelle dans les architectures transformer. Améliore la capacité du modèle à se concentrer sur les périodes pertinentes tout en ignorant le bruit temporel.

📖
个术语

Hierarchical Temporal Attention

Architecture d'attention qui opère à plusieurs échelles temporelles simultanément pour capturer les motifs à court, moyen et long terme. Combine les informations de différentes résolutions temporelles pour une compréhension complète des dynamiques séquentielles.

📖
个术语

Adaptive Frequency Attention

Mécanisme qui adapte l'attention en fonction des fréquences dominantes dans les séries temporelles analysées. Combine les approches temporelles et fréquentielles pour une meilleure modélisation des motifs périodiques et cycliques.

🔍

未找到结果