Glossario IA
Il dizionario completo dell'Intelligenza Artificiale
OpenPose
Système de détection de pose corporelle en temps réel qui extrait les points clés des articulations, utilisé comme condition pour que les modèles de diffusion génèrent des images respectant une posture humaine précise.
Canny Edge Detection
Algorithme de détection de contours multi-étapes qui identifie les fortes variations d'intensité dans une image, servant de carte de contrôle spatiale pour les modèles de diffusion afin de préserver les structures géométriques.
Scribble Map
Condition de contrôle sous forme de croquis simples ou de traits grossiers qui guident la composition et les formes de base de l'image générée par le modèle de diffusion.
Depth Map
Représentation 2D de l'information de profondeur 3D d'une scène, où chaque pixel encode sa distance par rapport à un plan de référence, utilisée pour contrôler la perspective et la disposition spatiale dans la génération.
MLSD (Mobile Line Segment Detector)
Détecteur de segments de ligne optimisé pour les appareils mobiles qui extrait les structures linéaires d'une image, servant de condition pour préserver l'architecture et les perspectives dans la génération.
HED (Holistically-Nested Edge Detection)
Méthode de détection de contours basée sur des réseaux neuronaux profonds qui capture les structures hiérarchiques des objets, offrant un contrôle plus sémantique que les détecteurs de contours traditionnels.
T2I-Adapter (Text-to-Image Adapter)
Module léger qui connecte des conditions de contrôle spatiales aux modèles de diffusion text-image, permettant un contrôle précis tout en conservant les capacités de génération originales du modèle.
Reference-Only Control
Technique de contrôle qui utilise une image de référence uniquement pour extraire des caractéristiques sans modification directe de la structure, préservant ainsi la composition tout en transférant le style.
ControlLoRA
Combination de ControlNet avec l'architecture LoRA (Low-Rank Adaptation) permettant un contrôle conditionnel efficace avec un minimum de paramètres entraînables.
SparseCtrl
Méthode de contrôle qui utilise des conditions éparses (points clés, boîtes englobantes) pour guider la génération, offrant une alternative plus légère aux cartes de contrôle denses.
UniControl
Framework unifié qui permet le contrôle simultané de multiples conditions (texte, pose, profondeur, etc.) dans un seul modèle de diffusion, éliminant le besoin d'entraînements séparés.
ControlNet-XS
Variante extrêmement légère de ControlNet qui utilise moins de 1% des paramètres originaux tout en maintenant des performances de contrôle comparables.
Multi-ControlNet
Architecture permettant l'application simultanée de plusieurs conditions de contrôle (ex: pose + profondeur + style) pour un guidage multi-dimensionnel de la génération d'images.
ControlNet Preprocessor
Module de traitement qui convertit les entrées brutes (images, croquis) en cartes de contrôle normalisées compatibles avec l'espace latent du modèle de diffusion.
Control Weight
Paramètre ajustable qui détermine l'influence relative de la condition de contrôle par rapport au prompt textuel dans le processus de génération du modèle de diffusion.