🏠 Home
Benchmark
📊 Tutti i benchmark 🦖 Dinosauro v1 🦖 Dinosauro v2 ✅ App To-Do List 🎨 Pagine libere creative 🎯 FSACB - Ultimate Showcase 🌍 Benchmark traduzione
Modelli
🏆 Top 10 modelli 🆓 Modelli gratuiti 📋 Tutti i modelli ⚙️ Kilo Code
Risorse
💬 Libreria di prompt 📖 Glossario IA 🔗 Link utili

Glossario IA

Il dizionario completo dell'Intelligenza Artificiale

162
categorie
2.032
sottocategorie
23.060
termini
📖
termini

Transformer-GAN

Intégration d'architectures basées sur des transformeurs dans le générateur ou le discriminateur d'un GAN, capturant efficacement les dépendances à longue distance dans les données séquentielles ou les images.

📖
termini

VQ-VAE-GAN

Combinaison d'un VQ-VAE (Vector Quantized VAE) avec un GAN, où le VQ-VAE apprend un dictionnaire de codes discrets et le GAN affine la génération dans l'espace latent pour une meilleure fidélité.

📖
termini

StyleGAN2-ADA

Variante de StyleGAN2 avec une Adaptation de Données Adversariale (ADA), permettant un entraînement efficace avec des ensembles de données limités en appliquant des augmentations de manière probabiliste.

📖
termini

CycleGAN-Transformer

Hybridation d'un CycleGAN avec des mécanismes d'attention de type transformeur pour améliorer la traduction d'image à image non appariée, en préservant mieux les structures globales.

📖
termini

Pix2PixHD-GAN

Architecture GAN multi-échelles pour la traduction d'images haute résolution, intégrant un discriminateur à plusieurs échelles et des pertes de caractéristiques pour capturer les détails fins.

📖
termini

SAGAN

Self-Attention GAN, intégrant des mécanismes d'auto-attention dans le générateur et le discriminateur pour modéliser les relations entre toutes les positions de l'image, améliorant la cohérence globale.

📖
termini

BigGAN-deep

Variante de BigGAN utilisant des architectures plus profondes et des techniques de régularisation avancées pour atteindre des performances de pointe en génération d'images à grande échelle.

📖
termini

Diffusion-GAN

Modèle hybride combinant un processus de diffusion avec un GAN, où le GAN apprend à inverser efficacement le processus de diffusion pour une génération d'échantillons de haute qualité.

📖
termini

GAN-CLIP

Intégration du modèle CLIP (Contrastive Language-Image Pre-training) pour guider la génération d'images à partir de descriptions textuelles, améliorant la cohérence sémantique texte-image.

📖
termini

Progressive GAN-Transformer

Combinaison de la croissance progressive de résolution de ProGAN avec des couches de transformeur, permettant une génération d'images haute résolution avec une meilleure cohérence structurelle.

📖
termini

InfoGAN-CR

Variante d'InfoGAN avec une régularisation de la représentation (CR), maximisant l'information mutuelle tout en contraint l'espace latent pour des représentations plus interprétables et stables.

📖
termini

WGAN-GP-Transformer

Intégration de la pénalité de gradient (GP) du WGAN-GP avec des mécanismes d'attention de transformeur, stabilisant l'entraînement tout en capturant les dépendances à longue portée.

📖
termini

StarGAN-v2-VAE

Extension de StarGAN-v2 incorporant un VAE pour apprendre un espace latent multi-domaine, permettant une traduction d'images plus flexible et de meilleure qualité entre plusieurs domaines.

📖
termini

GAN-SBERT

Fusion d'un GAN avec SBERT (Sentence-BERT) pour la génération de texte conditionnée, utilisant des embeddings de phrases sémantiquement riches pour guider le processus génératif.

📖
termini

HybridGAN-Flow

Architecture combinant un GAN avec un modèle de flux normalizing, où le modèle de flux apprend une distribution de base et le GAN affine la génération pour des échantillons plus réalistes.

🔍

Nessun risultato trovato