Régularisation de Paramètres
Orthogonal Gradient Descent (OGD)
Méthode qui projette le gradient de la nouvelle tâche sur l'espace orthogonal aux sous-espaces de gradients des tâches précédentes. Cette projection garantit que l'apprentissage de nouvelles tâches n'interfère pas avec les directions importantes pour les performances passées.
← Retour