Glossário IA
O dicionário completo da Inteligência Artificial
Aprendizado Auto-Supervisionado
Paradigma de aprendizado onde um modelo aprende representações a partir de dados não rotulados criando tarefas de supervisão artificiais. Esta abordagem permite aproveitar grandes quantidades de dados sem anotação manual custosa.
Aprendizado Contrastivo
Técnica de aprendizado auto-supervisionado que aprende representações aproximando amostras positivas similares e afastando amostras negativas dissimilares no espaço de embedding. Este método maximiza o acordo entre diferentes aumentações da mesma amostra.
Tarefa Pretexto
Tarefa artificial projetada para aprendizado auto-supervisionado que força o modelo a aprender características úteis a partir de dados não rotulados. Estas tarefas servem como pretexto para treinar o modelo antes da transferência para tarefas downstream.
Contraste por Momentum (MoCo)
Framework de aprendizado contrastivo que mantém uma fila de amostras negativas e usa um codificador momentum para garantir a consistência das representações. Esta abordagem permite usar um grande número de negativos sem necessitar de batch size grande.
SimCLR
Framework simples de aprendizado contrastivo que maximiza o acordo entre diferentes aumentações da mesma amostra após passagem por uma rede neural. Esta abordagem demonstra que o aumento de dados e o tamanho do batch são cruciais para o desempenho.
BYOL
Método de aprendizado auto-supervisionado que não usa amostras negativas, confiando em duas redes com arquitetura assimétrica e um preditor. BYOL evita o colapso trivial através do parada de gradiente e atualização momentum.
Representação de Características
Codificação vetorial de dados brutos em um espaço latente onde relações semânticas são preservadas e exploráveis para tarefas downstream. Representações aprendidas por auto-supervisão capturam características genéricas transferíveis.
Dados Não Rotulados
Dados brutos sem anotações manuais que são abundantes e baratos de coletar em comparação com dados rotulados. Aprendizado auto-supervisionado explora eficientemente estes dados para pré-trear modelos performantes.
Espaço de Embedding
Espaço vetorial de baixa dimensão onde os dados são projetados para capturar suas relações semânticas e estruturais. Na aprendizagem auto-supervisionada, o objetivo é aprender um espaço de embedding discriminativo.
Amostragem Negativa
Técnica que consiste em selecionar exemplos que devem ser distantes da âncora no espaço de embedding durante a aprendizagem contrastiva. A escolha estratégica dos negativos influencia diretamente a qualidade das representações aprendidas.
Cabeça de Projeção
Rede neural adicional aplicada após o codificador principal para mapear as representações para o espaço onde a perda contrastiva é calculada. Esta cabeça é tipicamente removida durante a transferência para tarefas downstream.
Arquitetura do Codificador
Estrutura da rede neural responsável por transformar dados brutos em representações vetoriais significativas. A escolha da arquitetura (ResNet, Transformer, etc.) influencia as capacidades de abstração do modelo.
DINO
Método auto-supervisionado baseado na destilação de conhecimento entre duas redes sem usar amostras negativas. DINO produz representações que capturam naturalmente a semântica das imagens e se adaptam bem ao clustering.