Glossaire IA
Le dictionnaire complet de l'Intelligence Artificielle
Replay Memory
Mémoire tampon stockant des exemples de données passées pour réentraîner périodiquement le modèle et contrer l'oubli catastrophique. Cette technique maintient une représentation équilibrée des connaissances historiques tout en intégrant de nouvelles informations.
Distillation de Connaissances
Technique où un modèle apprenant imite les sorties d'un modèle expert précédent pour conserver les connaissances acquises. Cette approche utilise les distributions de probabilités soft du modèle enseignant comme guide pour préserver les relations apprises entre les classes.
Réseaux de Neurones Progressifs
Architecture où chaque nouvelle tâche dispose de sa propre colonne neuronale tout en conservant des connexions latérales avec les colonnes précédentes. Cette structure évite l'interférence directe entre tâches tout en permettant le transfert de connaissances.
Apprentissage par Tâches Incrémental
Scénario d'apprentissage où les tâches sont présentées séquentiellement avec des frontières de tâches clairement définies. Le modèle doit performer sur toutes les tâches apprises sans accès simultané aux données de toutes les tâches.
Apprentissage par Classes Incrémental
Paradigme où de nouvelles classes sont ajoutées progressivement au système de classification sans réexposer les anciennes classes. Cette approche simule des conditions réelles où les catégories évoluent dynamiquement au cours du temps.
Adaptation de Domaine
Processus d'ajustement d'un modèle entraîné sur un domaine source pour performer efficacement sur un domaine cible différent. L'adaptation incrémentale permet au modèle de s'adapter progressivement aux changements de distribution des données.
Apprentissage par Curriculum
Stratégie séquentielle présentant les échantillons d'apprentissage par ordre de difficulté croissante pour optimiser la convergence. Le curriculum adaptatif ajuste dynamiquement la séquence d'apprentissage selon les progrès du modèle.
Regularisation Synaptique
Technique protégeant les connexions neuronales importantes pour les tâches passées lors de l'apprentissage de nouvelles informations. Cette approche identifie les poids synaptiques critiques et applique des pénalités pour préserver leur contribution aux performances antérieures.