🏠 Inicio
Pruebas de rendimiento
📊 Todos los benchmarks 🦖 Dinosaurio v1 🦖 Dinosaurio v2 ✅ Aplicaciones To-Do List 🎨 Páginas libres creativas 🎯 FSACB - Showcase definitivo 🌍 Benchmark de traducción
Modelos
🏆 Top 10 modelos 🆓 Modelos gratuitos 📋 Todos los modelos ⚙️ Kilo Code
Recursos
💬 Biblioteca de prompts 📖 Glosario de IA 🔗 Enlaces útiles

Glosario IA

El diccionario completo de la Inteligencia Artificial

231
categorías
2.999
subcategorías
35.535
términos
📖
términos

Aprendizaje Auto-supervisado

Paradigma de aprendizaje donde un modelo aprende representaciones a partir de datos no etiquetados creando tareas de supervisión artificiales. Este enfoque permite aprovechar grandes cantidades de datos sin necesidad de anotación manual costosa.

📖
términos

Aprendizaje Contrastivo

Técnica de aprendizaje auto-supervisado que aprende representaciones acercando las muestras positivas similares y alejando las muestras negativas disímiles en el espacio de embedding. Este método maximiza el acuerdo entre diferentes aumentaciones de la misma muestra.

📖
términos

Tarea Pretexto

Tarea artificial diseñada para el aprendizaje auto-supervisado que fuerza al modelo a aprender características útiles a partir de datos no etiquetados. Estas tareas sirven como pretexto para entrenar el modelo antes de transferirlo a tareas posteriores.

📖
términos

Contraste de Momento (MoCo)

Framework de aprendizaje contrastivo que mantiene una cola de muestras negativas y utiliza un codificador de momento para garantizar la consistencia de las representaciones. Este enfoque permite utilizar un gran número de negativos sin necesidad de un tamaño de lote grande.

📖
términos

SimCLR

Framework simple de aprendizaje contrastivo que maximiza el acuerdo entre diferentes aumentaciones de la misma muestra después de pasar por una red neuronal. Este enfoque demuestra que la augmentación de datos y el tamaño del lote son cruciales para el rendimiento.

📖
términos

BYOL

Método de aprendizaje auto-supervisado que no utiliza muestras negativas, basándose más bien en dos redes con una arquitectura asimétrica y un predictor. BYOL evita el colapso trivial gracias a la detención de gradientes y la actualización de momento.

📖
términos

Representación de Características

Codificación vectorial de datos brutos en un espacio latente donde las relaciones semánticas se preservan y son explotables para tareas posteriores. Las representaciones aprendidas por auto-supervisión capturan características genéricas transferibles.

📖
términos

Datos no Etiquetados

Datos brutos sin anotaciones manuales que son abundantes y poco costosos de recolectar en comparación con los datos etiquetados. El aprendizaje auto-supervisado explota eficazmente estos datos para pre-entrenar modelos de alto rendimiento.

📖
términos

Embedding Space

Espacio vectorial de baja dimensión donde los datos se proyectan para capturar sus relaciones semánticas y estructurales. En el aprendizaje auto-supervisado, el objetivo es aprender un espacio de embedding discriminativo.

📖
términos

Negative Sampling

Técnica que consiste en seleccionar ejemplos que deben estar alejados del ancla en el espacio de embedding durante el aprendizaje contrastivo. La elección estratégica de los negativos influye directamente en la calidad de las representaciones aprendidas.

📖
términos

Projection Head

Red neuronal adicional aplicada después del codificador principal para mapear las representaciones hacia el espacio donde se calcula la pérdida contrastiva. Esta cabeza típicamente se elimina durante la transferencia a tareas posteriores.

📖
términos

Encoder Architecture

Estructura de la red neuronal responsable de transformar los datos brutos en representaciones vectoriales significativas. La elección de la arquitectura (ResNet, Transformer, etc.) influye en las capacidades de abstracción del modelo.

📖
términos

DINO

Método auto-supervisado basado en la destilación de conocimientos entre dos redes sin utilizar muestras negativas. DINO produce representaciones que capturan naturalmente la semántica de las imágenes y se prestan bien al clustering.

🔍

No se encontraron resultados