Thuật ngữ AI
Từ điển đầy đủ về Trí tuệ nhân tạo
Bidirectional RNN
Recurrent neural network architecture that processes sequences in both temporal directions simultaneously. This structure captures past and future context for each point in the sequence.
Forward Pass
Process of propagating information from the beginning to the end of the sequence in a bidirectional RNN. Computes hidden states by analyzing previous temporal context.
Backward Pass
Propagation of information from the end to the beginning of the sequence in a bidirectional RNN. Captures future context to improve overall sequence understanding.
Hidden State
Internal vector representation of the network at each timestep, storing relevant temporal information. In bidirectional RNNs, combines forward and backward states.
Context Vector
Concatenation or fusion of forward and backward hidden states creating a complete contextual representation. Captures bidirectional dependencies for each temporal position.
Temporal Dependencies
Relations and correlations between different temporal points in a data sequence. Bidirectional RNNs model these dependencies in both temporal directions.
Concatenation Layer
Fusion layer combining the outputs of forward and backward passes of the bidirectional RNN. Creates a unified representation preserving complete contextual information.
Bidirectional GRU
Bidirectional architecture based on Gated Recurrent Units offering a lighter alternative to Bi-LSTM. Maintains computational efficiency while capturing bidirectional context.
Sequence Padding
Technique d'ajout de valeurs neutres pour uniformiser la longueur des séquences dans un batch. Essentielle pour le traitement parallèle des RNN bidirectionnels avec des séquences de longueurs variables.
Masking Mechanism
Procédé permettant d'ignorer les positions paddées lors du calcul des gradients dans les RNN bidirectionnels. Préserve l'intégrité de l'apprentissage en ne considérant que les réelles données temporelles.
Temporal Attention
Mécanisme d'attention appliqué aux sorties bidirectionnelles pour pondérer l'importance des différents timesteps. Améliore la performance en se concentrant sur les segments les plus pertinents de la séquence.
Bidirectional Encoding
Processus de transformation des séquences en représentations vectorielles enrichies par le contexte bidirectionnel. Fondamental pour les tâches de NLP comme la classification de texte et l'analyse de sentiment.
Gradient Flow
Propagation du gradient à travers les couches temporelles dans les deux directions lors de la rétropropagation. Les RNN bidirectionnels optimisent simultanément les paramètres forward et backward.
Contextual Embeddings
Représentations vectorielles dynamiques générées par les RNN bidirectionnels qui varient selon le contexte. Diffèrent des embeddings statiques en capturant les nuances sémantiques dépendantes du contexte.
Sequence Tagging
Tâche consistant à assigner des étiquettes à chaque élément d'une séquence utilisant des RNN bidirectionnels. Applications typiques : reconnaissance d'entités nommées et étiquetage morphosyntaxique.
Bidirectional Context
Information complète disponible à chaque timestep en considérant simultanément le passé et le futur. Permet une compréhension plus profonde que les RNN unidirectionnels traditionnels.
Temporal Fusion
Strategic combination of forward and backward temporal information to create a unified prediction. Optimizes the final decision by exploiting the entire available contextual spectrum.