Glossaire IA
Le dictionnaire complet de l'Intelligence Artificielle
Apprentissage Continuel sans Tâches
Paradigme d'apprentissage où le modèle apprend continuellement à partir d'un flux de données sans délimitation explicite des tâches, nécessitant une adaptation autonome aux changements de distribution.
Plasticité-Stabilité
Dilemme fondamental en apprentissage continuel entre la capacité à apprendre de nouvelles informations (plasticité) et la préservation des connaissances acquises (stabilité).
Replay Buffer Dynamique
Mémoire tampon adaptative qui stocke sélectivement des échantillons représentatifs du passé pour réviser périodiquement les connaissances antérieures sans frontières de tâches définies.
Régularisation Synaptique Continuelle
Technique préservant les poids synaptiques importants identifiés dynamiquement lors de l'apprentissage continu pour limiter l'oubli catastrophique sans connaissance a priori des tâches.
Expansion Adaptative de Réseau
Stratégie ajoutant dynamiquement des neurones ou des couches au réseau lorsque de nouvelles capacités sont requises, permettant une croissance organique sans segmentation explicite des tâches.
Consolidation Synaptique en Ligne
Processus de stabilisation progressive des connexions neuronales importantes identifiées en temps réel pendant l'apprentissage continu, mimant les mécanismes de consolidation biologique.
Détection Automatique de Changement
Mécanisme identifiant automatiquement les transitions dans la distribution des données ou les concepts sans supervision explicite, crucial pour l'adaptation continue.
Mémoire Episodique sans Frontières
Système de mémoire stockant des expériences significatives de manière continue sans segmentation par tâches, utilisant des critères de sélection dynamiques basés sur l'utilité.
Apprentissage Continu Auto-Supervisé
Approche où le modèle génère ses propres signaux d'apprentissage à partir des données non étiquetées de manière continue, adaptant ses représentations sans supervision externe.
Espace Latent Continuel
Représentation de dimension réduite évoluant dynamiquement pour accommoder de nouveaux concepts tout en préservant la structure sémantique des connaissances antérieures.
Transfert de Connaissances Graduel
Processus d'identification et de réutilisation automatique des connaissances transférables entre concepts émergents dans un flux de données continu sans délimitation explicite.
Métriques de Continuité
Indicateurs quantifiant la performance du modèle sur l'ensemble des connaissances acquises au fil du temps, mesurant l'équilibre entre apprentissage et préservation sans segmentation de tâches.
Adaptation Non Stationnaire
Capacité d'un système à modifier ses paramètres internes en réponse à des distributions de données changeantes dynamiquement, caractéristique essentielle de l'apprentissage sans tâches.