🏠 Home
Benchmark
📊 Tutti i benchmark 🦖 Dinosauro v1 🦖 Dinosauro v2 ✅ App To-Do List 🎨 Pagine libere creative 🎯 FSACB - Ultimate Showcase 🌍 Benchmark traduzione
Modelli
🏆 Top 10 modelli 🆓 Modelli gratuiti 📋 Tutti i modelli ⚙️ Kilo Code
Risorse
💬 Libreria di prompt 📖 Glossario IA 🔗 Link utili

Glossario IA

Il dizionario completo dell'Intelligenza Artificiale

162
categorie
2.032
sottocategorie
23.060
termini
📖
termini

Temporal Transformer

Architecture neuronale adaptée du transformer original pour le traitement des séries temporelles, utilisant des mécanismes d'attention pour capturer les dépendances temporelles à long terme. Cette architecture modifie les composants du transformer standard pour mieux gérer les caractéristiques spécifiques des données séquentielles temporelles.

📖
termini

Patch Time Series Transformer (PatchTST)

Architecture transformer qui divise les séries temporelles en patchs pour améliorer l'efficacité computationnelle et capturer les motifs locaux et globaux. Cette approche permet de réduire la complexité temporelle tout en préservant les relations temporelles importantes dans les données.

📖
termini

Temporal Positional Encoding

Mécanisme d'encodage qui injecte des informations temporelles dans les séries temporelles pour que le modèle comprenne l'ordre chronologique des observations. Contrairement à l'encodage positionnel standard pour le texte, il doit tenir compte des intervalles de temps variables et des périodicités.

📖
termini

Causal Attention Masking

Technique de masquage qui empêche le modèle d'utiliser des informations futures lors de la prédiction, assurant que l'attention ne se porte que sur les pas temporels passés. Essentiel pour les tâches de prévision où les prédictions ne doivent dépendre que des données historiques.

📖
termini

Informer Architecture

Architecture transformer optimisée pour les séries temporelles longues avec un mécanisme d'attention probabiliste efficace et un distillateur de dépendances. Conçue pour réduire la complexité quadratique de l'attention standard tout en préservant la capacité à capturer les dépendances à long terme.

📖
termini

Temporal Fusion Transformer (TFT)

Architecture hybride qui combine des mécanismes d'attention avec des réseaux de résonance pour la prévision de séries temporelles multivariées. Intègre des variables statiques et des contrôles d'interprétabilité pour comprendre les relations entre les différentes séries temporelles.

📖
termini

Autoformer

Architecture transformer avec un mécanisme d'autocorrélation profond qui remplace l'attention standard pour une meilleure capture des dépendances temporelles. Utilise une décomposition série-temps pour séparer les tendances et la saisonnalité, améliorant ainsi la précision des prévisions.

📖
termini

Cross-Attention for Multivariate Series

Mécanisme d'attention qui modélise les interactions entre différentes variables temporelles dans des séries multivariées. Permet au modèle de découvrir et d'exploiter les relations inter-séries pour améliorer la précision des prédictions.

📖
termini

Temporal Attention Window

Technique qui limite la portée de l'attention à une fenêtre temporelle spécifique pour réduire la complexité computationnelle et se concentrer sur les dépendances pertinentes. Particulièrement utile pour les séries temporelles très longues où les dépendances lointaines sont moins importantes.

📖
termini

Time Series Patch Embedding

Processus de transformation de segments de séries temporelles en vecteurs d'embedding qui servent d'entrée aux couches transformer. Permet de réduire la dimensionnalité des données tout en préservant les motifs temporels importants.

📖
termini

Seasonal Decomposition Transformer

Architecture qui intègre une décomposition saisonnière explicite dans le pipeline transformer pour mieux modéliser les motifs cycliques. Sépare les séries en composantes tendance, saisonnière et résiduelle avant l'application des mécanismes d'attention.

📖
termini

Efficient Attention for Time Series

Variants d'attention optimisés pour les séries temporelles qui réduisent la complexité computationnelle de O(n²) à O(n) ou O(n log n). Comprennent des approches comme Performer, Linformer ou Reformer adaptées spécifiquement aux données temporelles.

📖
termini

Variable Selection Transformer

Mécanisme qui apprend à sélectionner dynamiquement les variables les plus pertinentes à chaque pas temporel pour la prédiction. Utilise des poids d'attention pour modéliser l'importance variable des features au cours du temps.

📖
termini

Temporal Self-Attention

Mécanisme où chaque point temporel calcule son importance par rapport à tous les autres points de la même série. Permet de capturer des dépendances complexes et à longue portée sans les contraintes des modèles RNN traditionnels.

📖
termini

Gated Attention for Time Series

Mécanisme d'attention qui utilise des portes pour contrôler sélectivement le flux d'information temporelle dans les architectures transformer. Améliore la capacité du modèle à se concentrer sur les périodes pertinentes tout en ignorant le bruit temporel.

📖
termini

Hierarchical Temporal Attention

Architecture d'attention qui opère à plusieurs échelles temporelles simultanément pour capturer les motifs à court, moyen et long terme. Combine les informations de différentes résolutions temporelles pour une compréhension complète des dynamiques séquentielles.

📖
termini

Adaptive Frequency Attention

Mécanisme qui adapte l'attention en fonction des fréquences dominantes dans les séries temporelles analysées. Combine les approches temporelles et fréquentielles pour une meilleure modélisation des motifs périodiques et cycliques.

🔍

Nessun risultato trovato