Glossaire IA
Le dictionnaire complet de l'Intelligence Artificielle
Bidirectional RNN
Architecture de réseau de neurones récurrents traitant les séquences dans les deux directions temporelles simultanément. Cette structure capture le contexte passé et futur pour chaque point de la séquence.
Forward Pass
Processus de propagation des informations du début vers la fin de la séquence dans un RNN bidirectionnel. Calcule les états cachés en analysant le contexte temporel précédent.
Backward Pass
Propagation des informations de la fin vers le début de la séquence dans un RNN bidirectionnel. Capture le contexte futur pour améliorer la compréhension globale de la séquence.
Hidden State
Représentation vectorielle interne du réseau à chaque timestep, stockant les informations temporelles pertinentes. Dans les RNN bidirectionnels, combine les états forward et backward.
Context Vector
Concaténation ou fusion des états cachés forward et backward créant une représentation contextuelle complète. Capture les dépendances bidirectionnelles pour chaque position temporelle.
Temporal Dependencies
Relations et corrélations entre différents points temporels dans une séquence de données. Les RNN bidirectionnels modélisent ces dépendances dans les deux directions temporelles.
Concatenation Layer
Couche de fusion combinant les sorties des passes forward et backward du RNN bidirectionnel. Crée une représentation unifiée préservant l'information contextuelle complète.
Bidirectional GRU
Architecture bidirectionnelle basée sur les Gated Recurrent Units offrant une alternative plus légère au Bi-LSTM. Maintient l'efficacité computationnelle tout en capturant le contexte bidirectionnel.
Sequence Padding
Technique d'ajout de valeurs neutres pour uniformiser la longueur des séquences dans un batch. Essentielle pour le traitement parallèle des RNN bidirectionnels avec des séquences de longueurs variables.
Masking Mechanism
Procédé permettant d'ignorer les positions paddées lors du calcul des gradients dans les RNN bidirectionnels. Préserve l'intégrité de l'apprentissage en ne considérant que les réelles données temporelles.
Temporal Attention
Mécanisme d'attention appliqué aux sorties bidirectionnelles pour pondérer l'importance des différents timesteps. Améliore la performance en se concentrant sur les segments les plus pertinents de la séquence.
Bidirectional Encoding
Processus de transformation des séquences en représentations vectorielles enrichies par le contexte bidirectionnel. Fondamental pour les tâches de NLP comme la classification de texte et l'analyse de sentiment.
Gradient Flow
Propagation du gradient à travers les couches temporelles dans les deux directions lors de la rétropropagation. Les RNN bidirectionnels optimisent simultanément les paramètres forward et backward.
Contextual Embeddings
Représentations vectorielles dynamiques générées par les RNN bidirectionnels qui varient selon le contexte. Diffèrent des embeddings statiques en capturant les nuances sémantiques dépendantes du contexte.
Sequence Tagging
Tâche consistant à assigner des étiquettes à chaque élément d'une séquence utilisant des RNN bidirectionnels. Applications typiques : reconnaissance d'entités nommées et étiquetage morphosyntaxique.
Bidirectional Context
Information complète disponible à chaque timestep en considérant simultanément le passé et le futur. Permet une compréhension plus profonde que les RNN unidirectionnels traditionnels.
Temporal Fusion
Combination stratégique des informations temporelles forward et backward pour créer une prédiction unifiée. Optimise la décision finale en exploitant tout le spectre contextuel disponible.