Glosario IA
El diccionario completo de la Inteligencia Artificial
Memoria de Reproducción
Memoria intermedia que almacena ejemplos de datos pasados para reentrenar periódicamente el modelo y contrarrestar el olvido catastrófico. Esta técnica mantiene una representación equilibrada del conocimiento histórico mientras integra nueva información.
Destilación de Conocimiento
Técnica en la que un modelo en aprendizaje imita las salidas de un modelo experto anterior para conservar los conocimientos adquiridos. Este enfoque utiliza las distribuciones de probabilidad suaves del modelo profesor como guía para preservar las relaciones aprendidas entre las clases.
Redes Neuronales Progresivas
Arquitectura donde cada nueva tarea dispone de su propia columna neuronal conservando conexiones laterales con las columnas anteriores. Esta estructura evita la interferencia directa entre tareas permitiendo al mismo tiempo la transferencia de conocimientos.
Aprendizaje Incremental por Tareas
Escenario de aprendizaje donde las tareas se presentan secuencialmente con límites de tareas claramente definidos. El modelo debe desempeñarse bien en todas las tareas aprendidas sin acceso simultáneo a los datos de todas las tareas.
Aprendizaje Incremental por Clases
Paradigma donde nuevas clases se añaden progresivamente al sistema de clasificación sin volver a exponer las clases antiguas. Este enfoque simula condiciones reales donde las categorías evolucionan dinámicamente con el tiempo.
Adaptación de Dominio
Proceso de ajuste de un modelo entrenado en un dominio fuente para funcionar eficazmente en un dominio objetivo diferente. La adaptación incremental permite al modelo adaptarse progresivamente a los cambios en la distribución de los datos.
Aprendizaje por Currículum
Estrategia secuencial que presenta las muestras de aprendizaje en orden de dificultad creciente para optimizar la convergencia. El currículum adaptativo ajusta dinámicamente la secuencia de aprendizaje según los progresos del modelo.
Regularización Sináptica
Técnica que protege las conexiones neuronales importantes para las tareas pasadas durante el aprendizaje de nueva información. Este enfoque identifica los pesos sinápticos críticos y aplica penalizaciones para preservar su contribución al rendimiento anterior.