Glossaire IA
Le dictionnaire complet de l'Intelligence Artificielle
FedAvg (Federated Averaging)
Algorithme d'agrégation fondamental en apprentissage fédéré qui calcule la moyenne pondérée des poids des modèles locaux en fonction de la taille des datasets clients pour créer un modèle global.
FedProx (Federated Proximal)
Extension de FedAvg ajoutant un terme de régularisation proximal pour contraindre les mises à jour locales à rester proches du modèle global, réduisant ainsi l'hétérogénéité des clients.
SCAFFOLD (Stochastic Controlled Averaging)
Algorithme d'agrégation avancé utilisant des variables de contrôle pour corriger les biais de drift client-server et réduire l'impact de l'hétérogénéité des données.
FedBN (Federated Batch Normalization)
Méthode d'agrégation maintenant des statistiques de batch normalisation locales spécifiques à chaque client tout en partageant les autres paramètres du modèle.
FedOpt (Federated Optimization)
Famille d'algorithmes utilisant des optimiseurs serveur avancés (Adam, Yogi) pour améliorer la convergence dans les scénarios d'apprentissage fédéré non-iid.
FedMA (Federated Matching Averaging)
Algorithme d'agrégation neuronale qui fait correspondre et moyenne les neurones similaires entre modèles locaux au lieu d'agréger directement les poids.
FedNova (Federated Normalized Averaging)
Méthode normalisant les mises à jour locales par le nombre d'étapes d'optimisation locales pour corriger les biais d'agrégation dans les environnements hétérogènes.
FedYogi
Optimiseur adaptatif pour l'apprentissage fédéré combinant FedAvg avec l'algorithme Yogi pour une meilleure adaptation aux distributions de données non-iid.
FedAdam
Variante de FedAvg intégrant l'optimiseur Adam côté serveur pour gérer dynamiquement les taux d'apprentissage et améliorer la convergence.
FedPer (Federated Personalization)
Architecture divisant le modèle en base globale et couches de personnalisation locales, permettant une adaptation spécifique à chaque client.
FedRep (Federated Representation Learning)
Méthode séparant l'apprentissage des représentations (global) et des classificateurs (local) pour optimiser les performances sur des données hétérogènes.
FedCurv (Federated Curvature)
Algorithme incorporant des informations de courbure de Fisher pour améliorer l'agrégation dans les scénarios avec forte hétérogénéité client.
FedSGD (Federated Stochastic Gradient Descent)
Variante de base où les clients effectuent une seule passe de gradient avant l'agrégation, réduisant le calcul local mais augmentant la communication.
FedDist (Federated Distillation)
Méthode d'agrégation basée sur la distillation de connaissances où les clients partagent leurs sorties softmax plutôt que les poids du modèle.
FedAdagrad
Combinaison de FedAvg avec l'optimiseur Adagrad côté serveur pour adapter les taux d'apprentissage selon l'historique des gradients.
FedBN+ (Federated Batch Normalization Plus)
Extension avancée de FedBN utilisant des statistiques de normalisation hybrides locales et globales pour équilibrer généralisation et personnalisation.
FedMLD (Federated Multi-Layer Distillation)
Technique de distillation appliquée à plusieurs couches du modèle pour transférer efficacement les connaissances entre clients hétérogènes.
FedAMP (Federated Adaptive Multi-Proxy)
Méthode utilisant des proxys multiples adaptatifs pour représenter les différentes distributions de données clients lors de l'agrégation.
FedRL (Federated Reinforcement Learning)
Paradigme d'agrégation spécifique aux modèles d'apprentissage par renforcement distribué combinant politiques locales optimales.
FedCV (Federated Computer Vision)
Ensemble d'algorithmes d'agrégation spécialisés pour les modèles de vision par ordinateur traitant des données d'images distribuées.