KI-Glossar
Das vollständige Wörterbuch der Künstlichen Intelligenz
Temporal Convolutional Network
Neural network architecture using dilated causal convolutions to model long-term temporal dependencies without feedback, providing an efficient alternative to traditional RNNs.
Causal Convolution
Convolution operation where the output at time t depends only on inputs up to time t, respecting temporal causality and preventing future information leakage.
Temporal Dilation
Technique of spacing sampling points in convolutions to exponentially increase the receptive field without increasing the number of parameters or computations.
Receptive Field
Temporal range of inputs that influence a particular output in a TCN, determined by kernel size and cumulative dilation factor across layers.
Causal Padding
Addition of zeros only at the beginning of the sequence to maintain temporal dimensions while preserving the causal structure of convolutions.
Stacked Architecture
TCN structure composed of stacked residual layers with increasing dilation factors (1, 2, 4, 8...) to capture multi-scale dependencies.
Weight Normalization
Weight normalization technique applied in TCNs to stabilize training and improve convergence, an alternative to batch normalization for sequences.
Temporal Dropout
Application of dropout on temporal dimensions of activations to regularize the model and prevent overfitting in sequence tasks.
Facteur de Dilatation
Paramètre contrôlant l'espacement entre les poids du filtre de convolution, permettant d'augmenter le champ réceptif sans augmenter la complexité computationnelle.
Kernel Size Temporel
Dimension du filtre de convolution le long de l'axe temporel dans les TCN, typiquement de petite taille (2-4) combinée avec la dilatation pour couvrir de longues séquences.
Parallélisation Temporelle
Avantage computationnel des TCN permettant de traiter tous les pas temporels simultanément contrairement aux RNN séquentiels, accélérant significativement l'entraînement.
Mémoire Stable
Capacité des TCN à maintenir des informations sur de longues périodes sans les problèmes de vanishing/exploding gradients affectant les RNN profonds.
Agrégation Multi-échelle
Processus par lequel les TCN combinent des caractéristiques à différentes résolutions temporelles grâce à l'empilement de couches avec différents facteurs de dilatation.
Temporal Residual Block
Unité de base des TCN combinant des convolutions dilatées, des normalisations, des activations et des skip connections pour construire le réseau profond.