KI-Glossar
Das vollständige Wörterbuch der Künstlichen Intelligenz
Modèle de Diffusion 3D
Architecture de génération qui applique un processus de bruitage et de débruitage itératif à des représentations tridimensionnelles pour créer des géométries complexes à partir d'un bruit aléatoire initial.
Score Matching 3D
Technique d'entraînement où le modèle apprend à prédire le gradient de la distribution de probabilité des données 3D, permettant de guider le processus de débruitage vers des formes tridimensionnelles réalistes.
Neural Radiance Field (NeRF)
Réseau neuronal qui représente une scène 3D continue en apprenant à mapper les coordonnées spatiales et les directions de vue à la couleur et à la densité, pouvant être généré via des processus de diffusion.
Point Cloud Diffusion
Application des principes de diffusion aux nuages de points, où le bruit est ajouté aux coordonnées 3D des points et le modèle apprend à reconstruire la structure géométrique originale.
Mesh Diffusion
Processus de génération qui applique la diffusion directement sur les maillages 3D, en opérant sur les sommets et les connectivités pour produire des surfaces maillées cohérentes et topologiquement valides.
Latent Diffusion 3D
Approche qui effectue le processus de diffusion dans un espace latent compressé de plus faible dimension avant de décoder en représentation 3D complète, réduisant ainsi les coûts computationnels.
Voxel Diffusion
Méthode de génération qui applique la diffusion sur des grilles 3D de voxels, où chaque voxel encode des attributs comme l'occupancy, la couleur ou les caractéristiques matérielles.
Triplane Representation
Technique de représentation 3D compacte qui encode les caractéristiques sur trois plans orthogonaux, permettant une reconstruction efficace via interpolation et servant de cible pour les modèles de diffusion 3D.
Diffusion avec Conditions 3D
Processus de diffusion guidé par des conditions supplémentaires comme des images 2D, des textes ou des esquisses pour contrôler la génération de formes 3D spécifiques.
Denoising Diffusion Implicit Model (DDIM) 3D
Variation déterministe des modèles de diffusion appliquée à la génération 3D, permettant un échantillonnage plus rapide avec moins d'étapes de débruitage tout en maintenant la qualité des formes générées.
Texture Synthesis par Diffusion 3D
Processus qui génère simultanément la géométrie 3D et les textures de surface en appliquant la diffusion sur des représentations combinées de forme et d'apparence.
Guidance par Classifier 3D
Technique qui utilise un classificateur pré-entraîné pour guider le processus de diffusion 3D vers des catégories d'objets spécifiques pendant la phase de débruitage.
Stochastic Differential Equations (SDE) 3D
Formulation mathématique du processus de diffusion en temps continu appliquée aux données 3D, offrant un cadre théorique unifié pour diverses approches de génération tridimensionnelle.
Hierarchical Diffusion 3D
Approche multi-échelle où la diffusion opère d'abord sur des représentations grossières de la forme 3D puis sur des détails de plus en plus fins, permettant un contrôle hiérarchique de la génération.
Shape Completion par Diffusion 3D
Application des modèles de diffusion 3D pour compléter des formes partielles ou endommagées en inférant les parties manquantes à travers un processus de débruitage guidé.
Cross-Attention 3D
Mécanisme d'attention qui relie les représentations 3D en cours de génération à des modalités conditionnelles comme le texte ou les images, permettant un contrôle précis de la sortie tridimensionnelle.