Glossaire IA
Le dictionnaire complet de l'Intelligence Artificielle
Graph Generative Models
Architecture de réseaux de neurones conçue pour apprendre la distribution sous-jacente des graphes et générer de nouvelles structures de graphes avec des propriétés similaires aux données d'entraînement.
GraphVAE
Variational Autoencoder adapté aux graphes utilisant un espace latent continu pour apprendre une distribution probabiliste sur les structures de graphes et permettre l'échantillonnage de nouveaux graphes.
GraphGAN
Réseau Général Adversarial appliqué aux graphes où un générateur crée des structures de graphes et un discriminateur évalue leur authenticité par rapport aux graphes réels.
GraphRNN
Modèle génératif séquentiel utilisant des réseaux neuronaux récurrents pour générer des graphes nœud par nœud en modélisant la distribution des séquences d'ajout d'arêtes.
Molecular Graph Generation
Application spécialisée des modèles génératifs de graphes pour la création de nouvelles structures moléculaires valides avec des propriétés chimiques désirées.
Graph Autoregressive Models
Approche générative décomposant la probabilité jointe d'un graphe en produit de probabilités conditionnelles pour générer séquentiellement les nœuds et arêtes.
Graph Flow-based Models
Modèles génératifs utilisant des transformations bijectives pour mapper entre l'espace des graphes et un espace latent simple, permettant une génération exacte et une estimation de densité.
Graph Diffusion Models
Modèles génératifs appliquant progressivement du bruit aux graphes d'entraînement puis apprenant à inverser ce processus pour générer de nouvelles structures de graphes.
Graph Normalizing Flows
Séries de transformations invertibles sur les graphes permettant une modélisation exacte de la distribution et un échantillonnage efficace de nouveaux graphes.
Graph-based VAE
Variational Autoencoder spécifiquement conçu pour gérer la nature permutation-invariante des graphes et leur structure topologique complexe.
Graph Convolutional Networks for Generation
Utilisation de GNNs comme encodeurs ou décodeurs dans les modèles génératifs pour capturer les dépendances structurelles lors de la génération de graphes.
Graph Attention Networks for Generation
Mécanisme d'attention adapté aux graphes pour pondérer sélectivement l'influence des différentes parties du graphe lors du processus génératif.
Graph Transformers for Generation
Architecture transformer modifiée pour traiter les structures de graphes en incorporant des biais structuraux et des mécanismes d'attention graphe-spécifiques.
Graph Reinforcement Learning for Generation
Approche traitant la génération de graphes comme un processus de décision séquentiel où un agent apprend à construire des graphes optimaux par essais et récompenses.
Graph Energy-based Models
Modèles génératifs définissant une fonction d'énergie sur les graphes où les graphes de faible énergie sont plus probables, utilisant l'échantillonnage de type MCMC.
Graph Implicit Models
Modèles génératifs définissant implicitement la distribution des graphes sans forme explicite, utilisant des techniques comme GANs ou les modèles basés sur le score.
Graph Neural ODEs
Équations différentielles ordinaires appliquées aux graphes pour modéliser des dynamiques continues dans l'espace latent et générer des graphes par résolution numérique.
Graph Variational Inference
Technique d'inférence approximative adaptée aux graphes pour estimer les distributions postérieures dans les modèles génératifs probabilistes de graphes.
Graph Latent Space Models
Représentation des graphes dans un espace latent de faible dimension où les distances et relations géométriques encodent la structure topologique du graphe original.
Graph Sequential Generation
Paradigme génératif construisant les graphes étape par étape, typiquement en ajoutant séquentiellement des nœuds et leurs connexions selon une politique apprise.