🏠 Início
Avaliações
📊 Todos os Benchmarks 🦖 Dinossauro v1 🦖 Dinossauro v2 ✅ Aplicações To-Do List 🎨 Páginas Livres Criativas 🎯 FSACB - Showcase Definitivo 🌍 Benchmark de Tradução
Modelos
🏆 Top 10 Modelos 🆓 Modelos Gratuitos 📋 Todos os Modelos ⚙️ Kilo Code
Recursos
💬 Biblioteca de Prompts 📖 Glossário de IA 🔗 Links Úteis

Glossário IA

O dicionário completo da Inteligência Artificial

242
categorias
3.306
subcategorias
39.932
termos
📖
termos

Aprendizado Auto-Supervisionado

Paradigma de aprendizado onde um modelo aprende representações a partir de dados não rotulados criando tarefas de supervisão artificiais. Esta abordagem permite aproveitar grandes quantidades de dados sem anotação manual custosa.

📖
termos

Aprendizado Contrastivo

Técnica de aprendizado auto-supervisionado que aprende representações aproximando amostras positivas similares e afastando amostras negativas dissimilares no espaço de embedding. Este método maximiza o acordo entre diferentes aumentações da mesma amostra.

📖
termos

Tarefa Pretexto

Tarefa artificial projetada para aprendizado auto-supervisionado que força o modelo a aprender características úteis a partir de dados não rotulados. Estas tarefas servem como pretexto para treinar o modelo antes da transferência para tarefas downstream.

📖
termos

Contraste por Momentum (MoCo)

Framework de aprendizado contrastivo que mantém uma fila de amostras negativas e usa um codificador momentum para garantir a consistência das representações. Esta abordagem permite usar um grande número de negativos sem necessitar de batch size grande.

📖
termos

SimCLR

Framework simples de aprendizado contrastivo que maximiza o acordo entre diferentes aumentações da mesma amostra após passagem por uma rede neural. Esta abordagem demonstra que o aumento de dados e o tamanho do batch são cruciais para o desempenho.

📖
termos

BYOL

Método de aprendizado auto-supervisionado que não usa amostras negativas, confiando em duas redes com arquitetura assimétrica e um preditor. BYOL evita o colapso trivial através do parada de gradiente e atualização momentum.

📖
termos

Representação de Características

Codificação vetorial de dados brutos em um espaço latente onde relações semânticas são preservadas e exploráveis para tarefas downstream. Representações aprendidas por auto-supervisão capturam características genéricas transferíveis.

📖
termos

Dados Não Rotulados

Dados brutos sem anotações manuais que são abundantes e baratos de coletar em comparação com dados rotulados. Aprendizado auto-supervisionado explora eficientemente estes dados para pré-trear modelos performantes.

📖
termos

Espaço de Embedding

Espaço vetorial de baixa dimensão onde os dados são projetados para capturar suas relações semânticas e estruturais. Na aprendizagem auto-supervisionada, o objetivo é aprender um espaço de embedding discriminativo.

📖
termos

Amostragem Negativa

Técnica que consiste em selecionar exemplos que devem ser distantes da âncora no espaço de embedding durante a aprendizagem contrastiva. A escolha estratégica dos negativos influencia diretamente a qualidade das representações aprendidas.

📖
termos

Cabeça de Projeção

Rede neural adicional aplicada após o codificador principal para mapear as representações para o espaço onde a perda contrastiva é calculada. Esta cabeça é tipicamente removida durante a transferência para tarefas downstream.

📖
termos

Arquitetura do Codificador

Estrutura da rede neural responsável por transformar dados brutos em representações vetoriais significativas. A escolha da arquitetura (ResNet, Transformer, etc.) influencia as capacidades de abstração do modelo.

📖
termos

DINO

Método auto-supervisionado baseado na destilação de conhecimento entre duas redes sem usar amostras negativas. DINO produz representações que capturam naturalmente a semântica das imagens e se adaptam bem ao clustering.

🔍

Nenhum resultado encontrado