Glosario IA
El diccionario completo de la Inteligencia Artificial
Aprendizaje Auto-supervisado
Paradigma de aprendizaje donde un modelo aprende representaciones a partir de datos no etiquetados creando tareas de supervisión artificiales. Este enfoque permite aprovechar grandes cantidades de datos sin necesidad de anotación manual costosa.
Aprendizaje Contrastivo
Técnica de aprendizaje auto-supervisado que aprende representaciones acercando las muestras positivas similares y alejando las muestras negativas disímiles en el espacio de embedding. Este método maximiza el acuerdo entre diferentes aumentaciones de la misma muestra.
Tarea Pretexto
Tarea artificial diseñada para el aprendizaje auto-supervisado que fuerza al modelo a aprender características útiles a partir de datos no etiquetados. Estas tareas sirven como pretexto para entrenar el modelo antes de transferirlo a tareas posteriores.
Contraste de Momento (MoCo)
Framework de aprendizaje contrastivo que mantiene una cola de muestras negativas y utiliza un codificador de momento para garantizar la consistencia de las representaciones. Este enfoque permite utilizar un gran número de negativos sin necesidad de un tamaño de lote grande.
SimCLR
Framework simple de aprendizaje contrastivo que maximiza el acuerdo entre diferentes aumentaciones de la misma muestra después de pasar por una red neuronal. Este enfoque demuestra que la augmentación de datos y el tamaño del lote son cruciales para el rendimiento.
BYOL
Método de aprendizaje auto-supervisado que no utiliza muestras negativas, basándose más bien en dos redes con una arquitectura asimétrica y un predictor. BYOL evita el colapso trivial gracias a la detención de gradientes y la actualización de momento.
Representación de Características
Codificación vectorial de datos brutos en un espacio latente donde las relaciones semánticas se preservan y son explotables para tareas posteriores. Las representaciones aprendidas por auto-supervisión capturan características genéricas transferibles.
Datos no Etiquetados
Datos brutos sin anotaciones manuales que son abundantes y poco costosos de recolectar en comparación con los datos etiquetados. El aprendizaje auto-supervisado explota eficazmente estos datos para pre-entrenar modelos de alto rendimiento.
Embedding Space
Espacio vectorial de baja dimensión donde los datos se proyectan para capturar sus relaciones semánticas y estructurales. En el aprendizaje auto-supervisado, el objetivo es aprender un espacio de embedding discriminativo.
Negative Sampling
Técnica que consiste en seleccionar ejemplos que deben estar alejados del ancla en el espacio de embedding durante el aprendizaje contrastivo. La elección estratégica de los negativos influye directamente en la calidad de las representaciones aprendidas.
Projection Head
Red neuronal adicional aplicada después del codificador principal para mapear las representaciones hacia el espacio donde se calcula la pérdida contrastiva. Esta cabeza típicamente se elimina durante la transferencia a tareas posteriores.
Encoder Architecture
Estructura de la red neuronal responsable de transformar los datos brutos en representaciones vectoriales significativas. La elección de la arquitectura (ResNet, Transformer, etc.) influye en las capacidades de abstracción del modelo.
DINO
Método auto-supervisado basado en la destilación de conocimientos entre dos redes sin utilizar muestras negativas. DINO produce representaciones que capturan naturalmente la semántica de las imágenes y se prestan bien al clustering.