Glossário IA
O dicionário completo da Inteligência Artificial
OpenPose
Sistema de detecção de pose corporal em tempo real que extrai os pontos-chave das articulações, usado como condição para que os modelos de difusão gerem imagens respeitando uma postura humana precisa.
Canny Edge Detection
Algoritmo de detecção de contornos multi-etapas que identifica as fortes variações de intensidade em uma imagem, servindo como um mapa de controle espacial para os modelos de difusão a fim de preservar as estruturas geométricas.
Scribble Map
Condição de controle na forma de esboços simples ou traços grosseiros que guiam a composição e as formas básicas da imagem gerada pelo modelo de difusão.
Depth Map
Representação 2D da informação de profundidade 3D de uma cena, onde cada pixel codifica sua distância em relação a um plano de referência, utilizada para controlar a perspectiva e a disposição espacial na geração.
MLSD (Mobile Line Segment Detector)
Detector de segmentos de linha otimizado para dispositivos móveis que extrai as estruturas lineares de uma imagem, servindo como condição para preservar a arquitetura e as perspectivas na geração.
HED (Holistically-Nested Edge Detection)
Método de detecção de contornos baseado em redes neurais profundas que captura as estruturas hierárquicas dos objetos, oferecendo um controle mais semântico do que os detectores de contornos tradicionais.
T2I-Adapter (Text-to-Image Adapter)
Módulo leve que conecta condições de controle espacial a modelos de difusão texto-imagem, permitindo um controle preciso enquanto mantém as capacidades de geração originais do modelo.
Reference-Only Control
Técnica de controle que utiliza uma imagem de referência apenas para extrair características sem modificação direta da estrutura, preservando assim a composição enquanto transfere o estilo.
ControlLoRA
Combinação de ControlNet com a arquitetura LoRA (Low-Rank Adaptation) que permite um controle condicional eficaz com um mínimo de parâmetros treináveis.
SparseCtrl
Método de controle que utiliza condições esparsas (pontos-chave, caixas delimitadoras) para guiar a geração, oferecendo uma alternativa mais leve aos mapas de controle densos.
UniControl
Framework unificado que permite o controle simultâneo de múltiplas condições (texto, pose, profundidade, etc.) em um único modelo de difusão, eliminando a necessidade de treinamentos separados.
ControlNet-XS
Variante extremamente leve do ControlNet que utiliza menos de 1% dos parâmetros originais, mantendo um desempenho de controle comparável.
Multi-ControlNet
Arquitetura que permite a aplicação simultânea de várias condições de controle (ex: pose + profundidade + estilo) para um guia multidimensional da geração de imagens.
ControlNet Preprocessor
Módulo de pré-processamento que converte entradas brutas (imagens, esboços) em mapas de controle normalizados compatíveis com o espaço latente do modelo de difusão.
Control Weight
Parâmetro ajustável que determina a influência relativa da condição de controle em relação ao prompt textual no processo de geração do modelo de difusão.