Glossaire IA
Le dictionnaire complet de l'Intelligence Artificielle
Salience Temporelle
Technique qui identifie les moments ou les intervalles de temps les plus influents dans une série temporelle en perturbant les données d'entrée et en mesurant l'impact sur la sortie du modèle.
Rétropropagation Guidée Temporelle
Méthode d'interprétabilité qui adapte la rétropropagation guidée aux réseaux de neurones récurrents pour visualiser les caractéristiques temporelles qui activent le plus les neurones.
LIME pour Séries Temporelles
Adaptation de l'algorithme LIME (Local Interpretable Model-agnostic Explanations) qui génère des explications locales en créant des segments perturbés de la série temporelle pour former un modèle interprétable simple.
SHAP Temporel
Extension des valeurs de SHapley Additive exPlanations aux données séquentielles, attribuant une contribution à chaque pas de temps ou à chaque caractéristique à chaque instant pour expliquer la prédiction globale.
Masquage d'Intervalle Temporel
Approche d'interprétabilité qui masque ou remplace des segments entiers de la série temporelle pour évaluer leur importance collective dans la décision du modèle, contrairement à la salience qui se concentre sur des points individuels.
Règles d'Évolution Temporelle
Méthode qui extrait des règles logiques décrivant comment les états ou les patterns évoluent dans le temps pour conduire à une prédiction spécifique, rendant le raisonnement du modèle séquentiel explicite.
Analyse de Trajectoire dans l'Espace Latent
Technique qui visualise et interprète le chemin parcouru par une séquence de données dans l'espace latent d'un modèle (comme un autoencodeur) pour comprendre sa dynamique et sa classification.
Pertinence Temporelle par Décomposition en Ondelettes
Méthode qui décompose la série temporelle en différentes fréquences et échelles temporelles via des ondelettes, puis évalue la pertinence de chaque composante pour la prédiction du modèle.
Explications Contrefactuelles Temporelles
Génération de séries temporelles minimales modifiées qui changent la prédiction du modèle, permettant de comprendre les conditions temporelles critiques qui auraient mené à un résultat différent.
Carte de Chaleur Dynamique
Visualisation d'interprétabilité qui affiche l'importance des caractéristiques (ou des pixels dans une vidéo) de manière évolutive au fil du temps, montrant comment le focus du modèle change.
Interprétabilité par Agrégation de Features Temporelles
Approche qui explique les prédictions en se basant sur des caractéristiques temporelles agrégées (moyenne mobile, variance, etc.) plutôt que sur les points de données bruts, offrant une vue plus macroscopique.
Décomposition de l'Influence par Pas de Temps
Méthode qui isole la contribution de chaque pas de temps individuel à la prédiction finale, souvent en utilisant des techniques de débruitage ou en analysant les gradients à travers les étapes récurrentes.
Analyse de l'Importance des Dépendances à Long Terme
Ensemble de techniques visant à quantifier et visualiser comment les événements lointains dans le passé influencent la prédiction actuelle, un enjeu clé pour les modèles comme les LSTM ou les Transformers.
Explications Causales Temporelles
Méthodologie qui va au-delà de la corrélation pour identifier les relations de cause à effet dans les données séquentielles qui sont exploitées par le modèle, en utilisant des modèles de causalité comme les graphes acycliques causaux temporels.