Glossario IA
Il dizionario completo dell'Intelligenza Artificiale
Transformer-GAN
Intégration d'architectures basées sur des transformeurs dans le générateur ou le discriminateur d'un GAN, capturant efficacement les dépendances à longue distance dans les données séquentielles ou les images.
VQ-VAE-GAN
Combinaison d'un VQ-VAE (Vector Quantized VAE) avec un GAN, où le VQ-VAE apprend un dictionnaire de codes discrets et le GAN affine la génération dans l'espace latent pour une meilleure fidélité.
StyleGAN2-ADA
Variante de StyleGAN2 avec une Adaptation de Données Adversariale (ADA), permettant un entraînement efficace avec des ensembles de données limités en appliquant des augmentations de manière probabiliste.
CycleGAN-Transformer
Hybridation d'un CycleGAN avec des mécanismes d'attention de type transformeur pour améliorer la traduction d'image à image non appariée, en préservant mieux les structures globales.
Pix2PixHD-GAN
Architecture GAN multi-échelles pour la traduction d'images haute résolution, intégrant un discriminateur à plusieurs échelles et des pertes de caractéristiques pour capturer les détails fins.
SAGAN
Self-Attention GAN, intégrant des mécanismes d'auto-attention dans le générateur et le discriminateur pour modéliser les relations entre toutes les positions de l'image, améliorant la cohérence globale.
BigGAN-deep
Variante de BigGAN utilisant des architectures plus profondes et des techniques de régularisation avancées pour atteindre des performances de pointe en génération d'images à grande échelle.
Diffusion-GAN
Modèle hybride combinant un processus de diffusion avec un GAN, où le GAN apprend à inverser efficacement le processus de diffusion pour une génération d'échantillons de haute qualité.
GAN-CLIP
Intégration du modèle CLIP (Contrastive Language-Image Pre-training) pour guider la génération d'images à partir de descriptions textuelles, améliorant la cohérence sémantique texte-image.
Progressive GAN-Transformer
Combinaison de la croissance progressive de résolution de ProGAN avec des couches de transformeur, permettant une génération d'images haute résolution avec une meilleure cohérence structurelle.
InfoGAN-CR
Variante d'InfoGAN avec une régularisation de la représentation (CR), maximisant l'information mutuelle tout en contraint l'espace latent pour des représentations plus interprétables et stables.
WGAN-GP-Transformer
Intégration de la pénalité de gradient (GP) du WGAN-GP avec des mécanismes d'attention de transformeur, stabilisant l'entraînement tout en capturant les dépendances à longue portée.
StarGAN-v2-VAE
Extension de StarGAN-v2 incorporant un VAE pour apprendre un espace latent multi-domaine, permettant une traduction d'images plus flexible et de meilleure qualité entre plusieurs domaines.
GAN-SBERT
Fusion d'un GAN avec SBERT (Sentence-BERT) pour la génération de texte conditionnée, utilisant des embeddings de phrases sémantiquement riches pour guider le processus génératif.
HybridGAN-Flow
Architecture combinant un GAN avec un modèle de flux normalizing, où le modèle de flux apprend une distribution de base et le GAN affine la génération pour des échantillons plus réalistes.