🏠 Accueil
Benchmarks
📊 Tous les Benchmarks 🦖 Dinosaure v1 🦖 Dinosaure v2 ✅ To-Do List Apps 🎨 Pages Libres 🎯 FSACB - Showcase 🌍 Traduction
Modèles
🏆 Top 10 Modèles 🆓 Modèles Gratuits 📋 Tous les Modèles ⚙️ Modes Kilo Code
Ressources
💬 Prompts IA 📖 Glossaire IA 🔗 Liens Utiles

Glossaire IA

Le dictionnaire complet de l'Intelligence Artificielle

242
catégories
3 353
sous-catégories
40 780
termes
📖
termes

Réseau Antagoniste Génératif

Architecture d'apprentissage non supervisé composée de deux réseaux neuronaux en compétition, un générateur et un discriminateur, qui s'affrontent pour générer des données synthétiques réalistes.

📖
termes

Perte Minimax

Fonction objectif originale des GANs où le générateur minimise le log-probabilité du discriminateur de se tromper, tandis que le discriminateur maximise la probabilité de classification correcte.

📖
termes

Espace Latent

Espace vectoriel de dimension réduite où le générateur échantillonne du bruit aléatoire pour créer des données, permettant un contrôle sémantique sur les caractéristiques générées.

📖
termes

StyleGAN

Architecture GAN avancée utilisant un mapping réseau et des modules AdaIN pour contrôler les styles hiérarchiques des caractéristiques générées à différentes résolutions.

📖
termes

Distance de Jensen-Shannon

Métrique de divergence symétrique et bornée utilisée dans les GANs originaux pour mesurer la différence entre la distribution des données réelles et générées.

📖
termes

Gradient Penalty

Terme de régularisation ajouté à la fonction perte WGAN pour contraindre les gradients du discriminateur, assurant la continuité de la transformée de Lipschitz.

📖
termes

Équilibre de Nash

Point d'optimalité où ni le générateur ni le discriminateur ne peuvent améliorer leur performance en modifiant unilatéralement leurs paramètres, indiquant la convergence de l'entraînement.

📖
termes

Réseau Encodeur

Composant additionnel dans les variantes BiGAN ou ALI qui apprend à mapper les données réelles vers l'espace latent, permettant l'inférence latente et la reconstruction.

📖
termes

Cycle Consistency Loss

Fonction de perte supplémentaire dans les CycleGANs garantissant la conservation du contenu lors de traductions entre domaines non appariés via des cycles aller-retour.

📖
termes

Spectral Normalization

Technique de régularisation contraignant la norme spectrale des poids du discriminateur, stabilisant l'entraînement des GANs en contrôlant la transformée de Lipschitz.

📖
termes

Progressive Growing

Stratégie d'entraînement où les réseaux commencent avec des images basse résolution et ajoutent progressivement des couches pour augmenter la résolution, stabilisant la convergence.

📖
termes

Auto-Encoder Variationnel

Architecture hybride combinant VAE et GAN où le VAE assure la couverture de l'espace latent et le GAN améliore la qualité visuelle des échantillons générés.

📖
termes

Fréchet Inception Distance

Métrique d'évaluation quantitative mesurant la similarité entre distributions de caractéristiques Inception des images réelles et générées via la distance de Fréchet.

🔍

Aucun résultat trouvé