Glossaire IA
Le dictionnaire complet de l'Intelligence Artificielle
Réseau Antagoniste Génératif
Architecture d'apprentissage non supervisé composée de deux réseaux neuronaux en compétition, un générateur et un discriminateur, qui s'affrontent pour générer des données synthétiques réalistes.
Perte Minimax
Fonction objectif originale des GANs où le générateur minimise le log-probabilité du discriminateur de se tromper, tandis que le discriminateur maximise la probabilité de classification correcte.
Espace Latent
Espace vectoriel de dimension réduite où le générateur échantillonne du bruit aléatoire pour créer des données, permettant un contrôle sémantique sur les caractéristiques générées.
StyleGAN
Architecture GAN avancée utilisant un mapping réseau et des modules AdaIN pour contrôler les styles hiérarchiques des caractéristiques générées à différentes résolutions.
Distance de Jensen-Shannon
Métrique de divergence symétrique et bornée utilisée dans les GANs originaux pour mesurer la différence entre la distribution des données réelles et générées.
Gradient Penalty
Terme de régularisation ajouté à la fonction perte WGAN pour contraindre les gradients du discriminateur, assurant la continuité de la transformée de Lipschitz.
Équilibre de Nash
Point d'optimalité où ni le générateur ni le discriminateur ne peuvent améliorer leur performance en modifiant unilatéralement leurs paramètres, indiquant la convergence de l'entraînement.
Réseau Encodeur
Composant additionnel dans les variantes BiGAN ou ALI qui apprend à mapper les données réelles vers l'espace latent, permettant l'inférence latente et la reconstruction.
Cycle Consistency Loss
Fonction de perte supplémentaire dans les CycleGANs garantissant la conservation du contenu lors de traductions entre domaines non appariés via des cycles aller-retour.
Spectral Normalization
Technique de régularisation contraignant la norme spectrale des poids du discriminateur, stabilisant l'entraînement des GANs en contrôlant la transformée de Lipschitz.
Progressive Growing
Stratégie d'entraînement où les réseaux commencent avec des images basse résolution et ajoutent progressivement des couches pour augmenter la résolution, stabilisant la convergence.
Auto-Encoder Variationnel
Architecture hybride combinant VAE et GAN où le VAE assure la couverture de l'espace latent et le GAN améliore la qualité visuelle des échantillons générés.
Fréchet Inception Distance
Métrique d'évaluation quantitative mesurant la similarité entre distributions de caractéristiques Inception des images réelles et générées via la distance de Fréchet.